• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Metodología para la creación de conocimiento en los entornos virtuales de enseñanza mediante herramientas de Business Intelligence. Caso de estudio en una institución educativa que emplea Moodle

Tutusaus Pifarré, Kilian 20 January 2016 (has links)
Educational organisations search for differentiating factors in order to become more efficient and effective, so they can improve their competitiveness in the present market. Knowing what is happening within them is a differentiating factor that can be used by incorporating Business Intelligence methods and tools. Many educational organisations use learning virtual environments that automatically store data about any interaction of its users. These interactions are recorded in digital systems that are not usually used, mainly because of the few functionalities and flexibility of the analysis and costumizing of the indicator. This thesis adapts Business Intelligence methods in order to compile a knowledge based in the data stored in the learning virtual environments by using efficience and effectiveness criteria, it mainly focuses on how to transform the data into knowledge. In its conclusion, this thesis contextualises and incorporates methods of knowledge compilation within the framwork of the e-learning department of an online training institution. Thus, the characteristics of these kind of institutions are defined, the suggested methodology implements an empirical experimentation in order to establish the viability from an effeciency and effectiveness point of view. / Las organizaciones educativas buscan factores diferenciadores que las hagan más eficientes y eficaces mejorando de esta manera su competitividad en el mercado actual. El conocimiento que poseen sobre lo que está ocurriendo dentro de ellas supone un factor diferenciador que puede ser explotado mediante métodos y herramientas propios del Business Intelligence. Muchas de las organizaciones educativas poseen entornos virtuales de aprendizaje que almacenan de forma automática cualquier interacción realizada por los usuarios. Estas interacciones se registran en sistemas digitales que no suele estar explotado debido, sobretodo, a las pocas funcionalidades y flexibilidad que disponen respecto al análisis y la personalización de indicadores. En esta tesis se adaptan métodos del Business intelligence para captar el conocimiento residente en los datos almacenados en los entornos virtuales de aprendizaje según criterios de eficiencia y eficacia, poniendo el foco en cómo se transforman estos datos en conocimiento. Como resultado de esta Tesis se contextualizan y aplican métodos de extracción de conocimiento en el marco del departamento de e-learning de una institución dedicada a impartir formación on-line. De esta forma, se definen las características propias de este tipo de instituciones y se aplica la experimentación empírica de la metodología propuesta estableciendo la viabilidad desde el punto de vista de la eficiencia y la eficacia.
382

El modelo eléctrico de conductancias aplicado al isomorfismo de grafos : el método de la estrella

Igelmo Ganzo, Manuel 28 January 2016 (has links)
The first objective proposed in the research of this thesis was the select and develop a (preferably simple) model for graphs, thus, the results obtained through the model may be extrapolated to the modeled objects: graphs. The theory associated with the model has to be consolidated, mature, closed and, therefore, accepted by all. The second objective proposed in the research, once selected and developed a model, was the design of an application of the model that would address the graph isomorphism problem. The third and final objective was to experimentally test the model and the application. The first objective resulted in the selection and development of an electric model in which applies the Circuit Theory meeting the requirements above mentioned. This model will be called "Conductance Electrical Model" (CEM). In the CEM graphs are transformed into electrical circuits of pure resistive concentrated parameters (without sources, inductors or capacitors) preserving the topology of the graph. From this point opens lots of possibilities with only contemplate the CEM obtained from one or more graphs. The computational complexity of obtaining of the CEM of a graph is always polynomial of order two according to the graph degree. Obtaining the CEM is always deterministic (it is not probabilistic, is not recursive and is not iterative). Graphs (weighted or not) that apply the CEM should be undirected and unlabeled nodes. The second objective resulted in the design of the "Star Method" (SM) which, from the CEM, allows to approach the open problem of isomorphism of graphs. Before applying the SM gets the CEM of two graphs of degree N, then SM begins from the two circuits that model, each one of them, a graph. It is advisable (but in any case optional) to perform a previous filter before starting the SM in order to discard pairs of graphs that, clearly, they may not be isomorphic. The first phase of the SM consists of obtaining all the equivalent resistance of the CEMs views from each pair of nodes in each pure resistive circuit (each with N (N -1)/2 values). At this stage already is if the graphs are isomorphic in binary form except false positive, these are those graphs which, despite not being isomorphic, present the same set of equivalent resistance. In a second phase each of electrical circuits is approximated by an electrical circuit in star with N +1 nodes and N branches (with a resistor in each branch). In this approach, they have get the values of the N resistors of the branches of the star so that minimizes the mean square error (mse) between the values of the equivalent resistance of the original circuit and circuit star equivalent resistances. In a third phase, ordering such values, the mapping of the isomorphism is obtained. In the fourth and final phase the retrieved mapping is validated so that SM is exact (may be caused by a false positive). SM is always exact if it reaches the phase of validation. If the resistances of the star does not have values repeated then it has a polynomial computational complexity of order three according to the number of nodes that, on the other hand, experiments corroborate is the majority of the cases. But if there are repeated values, SM has no polynomial computational complexity, going to be factorial but, in any case, not as N but according to the maximum number of repetitions that occur in the values of the resistances of the branches of the star. Even so, the rest of the nodes can be obtained (almost complete) partial mapping with polynomial computational complexity so that, at least, the SM no wasted temporal resources. Finally, it must be said that the experimental results have been satisfactory. / El primer objetivo propuesto en la investigación de esta tesis fue seleccionar y desarrollar un modelo (preferentemente sencillo) para los grafos de forma tal que, en el modelo, se pueda aplicar y utilizar una teoría asociada al mismo que sea consolidada, madura, cerrada y, en definitiva, aceptada por todos. De esta forma, los resultados que se obtienen a través del modelo son extrapolables a los objetos modelizados: los grafos. El segundo objetivo propuesto en la investigación, una vez seleccionado y desarrollado un modelo, fue diseñar y explotar una aplicación del modelo que permitiera abordar el problema del isomorfismo de grafos. El tercer y último objetivo fue probar experimentalmente el modelo y la aplicación. El resultado del primer objetivo fue la selección y desarrollo de un modelo eléctrico en donde aplica la Teoría de Circuitos que cumple los requisitos más arriba enunciados. Este modelo será denominado como "Modelo Eléctrico de Conductancias" (CEM en inglés). En el CEM los grafos se transforman en circuitos eléctricos de parámetros concentrados resistivos puros (sin fuentes, ni inductores, ni condensadores) conservando la topología del grafo. A partir de este punto se abren multitud de posibilidades con sólo contemplar el CEM obtenido de uno o varios grafos. La complejidad computacional de la obtención del CEM a partir de un grafo es siempre polinomial de orden dos según el grado del grafo, siendo el algoritmo de obtención determinista, no iterativo y no recursivo. Los grafos a los que se puede aplicar el CEM deben ser no dirigidos (ponderados o no) y sin etiquetas en los nodos. EL resultado del segundo objetivo fue el diseño del "Método de la Estrella" (SM en inglés) que, a partir del CEM, permite abordar el problema abierto del isomorfismo de grafos. Antes de aplicar el SM se obtiene el CEM de dos grafos ambos de grado N, entonces el SM comienza a partir de los dos circuitos que modelan, cada uno, un grafo. Como fase previa al SM es conveniente, pero en todo caso opcional, realizar un filtrado previo con el fin de descartar los pares de grafos que, de forma evidente, no podrán ser isomorfos. La primera fase del SM consiste en la extracción de todas las resistencias equivalentes de los CEMs vistas desde cada par de nodos de cada circuito resistivo puro (cada uno con N (N -1)/2 valores). En esta fase ya se está en condiciones de detectar el isomorfismo de forma binaria salvo falsos positivos, estos serán aquellos grafos que, aún no siendo isomorfos, presenten el mismo conjunto de resistencias equivalentes. En una segunda fase cada uno de los circuitos eléctricos se aproxima por un circuito eléctrico en estrella de N +1 nodos y N ramas con un resistor en cada rama. En esta aproximación se han de obtener los valores de los N resistores de las ramas de la estrella para que se minimice el error cuadrático medio (ecm) entre los valores de las resistencias equivalentes del circuito original y las resistencias equivalentes del circuito en estrella. En una tercera fase, ordenando dichos valores, se extrae el mapeado del isomorfismo. En la cuarta y última fase, con el objetivo de que el SM sea exacto, se valida el mapeado obtenido ya que puede haberse producido un falso positivo. El SM es siempre exacto si se llega hasta la fase de validación. Si en las resistencias de la estrella no hay valores repetidos entonces tiene una complejidad computacional polinomial de orden tres según el número de nodos que, por otro lado, los experimentos corroboran es la mayoría de los casos. Pero si existen valores repetidos, el SM ya no tiene complejidad computacional polinomial, y pasa a ser factorial pero, en todo caso, ya no según N sino según el número máximo de repeticiones que se pueden producir en los valores de las resistencias de las ramas de la estrella. Aún así, del resto de nodos se puede obtener el mapeado parcial (casi total) con complejidad computacional polinomial por lo que, al menos, el SM no malgasta recursos temporales.
383

Energy efficient control of electrostatically actuated MEMS

Fargas Marquès, Andreu 22 January 2016 (has links)
Plenty of Micro-electro-mechanical Systems (MEMS) devices are actuated using electrostatic forces, and specially, parallel-plate actuators are extensively used, due to the simplicity of their design. Nevertheless, parallel-plate actuators have some limitations due to the nonlinearity of the generated force. The dissertation analyzes the dynamics of the lumped electrostatically actuated nonlinear system, in order to obtain insight on its characteristics, define desired performance goals and implement a controller for energy efficient robustly stable actuation of MEMS resonators. In the first part of the dissertation, the modeling of the electromechanical lumped system is developed. From a complete distributed parameters model for MEMS devices which rely on electrostatic actuation, a concentrated parameters simplification is derived to be used for analysis and control design. Based on the model, energy analysis of the pull-in instability is performed. The classic approach is revisited to extend the results to models with a nonlinear springs. Analysis of the effect of dynamics is studied as an important factor for the stability of the system. From this study, the Resonant Pull-in Condition for parallel-plate electrostatically actuated MEMS resonators is defined and experimentally validated. Given the importance of the nonlinear dynamics and its richness in behaviors, Harmonic Balance is chosen as a tool to characterize the steady-state oscillation of the resonators. This characterization leads to the understanding of the key factors for large and stable oscillation of resonators. An important conclusion is reached, Harmonic Balance predicts that any oscillation amplitude is possible for any desired frequency if the appropriate voltage is applied to the resonator. And the energy consumption is dependent on this chosen oscillation frequency. Based on Harmonic Balance results, four main goals are defined for the control strategy: Stable oscillation with large amplitudes of motion; Robust oscillation independently of MEMS imperfections; Pure sinus-like oscillation for high-grade sensing; and Low energy consumption. The second part of the dissertation deals with the controller selection, design and verification. A survey of prior work on MEMS control confirms that existing control approaches cannot provide the desired performance. Consequently, a new three-stage controller is proposed to obtain the desired oscillation with the expected stability and energy efficiency. The controller has three different control loops. The first control loop includes a Robust controller designed using on µ-synthesis, to deal with MEMS resonators uncertainties. The second control loop includes an Internal-Model-Principle Resonant controller, to generate the desired control action to obtain the desired oscillation. And the third control loop handles the energy consumption minimization through an Extremum Seeking Controller, which selects the most efficient working frequency for the desired oscillation. The proposed controller is able to automatically generate the needed control voltage, as predicted by the Harmonic Balance analysis, to operate the parallel-plate electrostatically actuated MEMS resonator at the desired oscillation. Performance verification of stability, robustness, sinus-like oscillation and energy efficiency is carried out through simulation. Finally, the needed steps for a real implementation are analyzed. Independent two-sided actuation for full-range amplitude oscillation is introduced to overcome the limitations of one-sided actuation. And a modification of standard Electromechanical Amplitude Modulation is analyzed and validated for position feedback implementation. With these improvements, a MEMS resonator with the desired specifications for testing the proposed control is designed for fabrication. Based on this design, testing procedure is discussed as future work. / Molts microsistemes (MEMS) són actuats amb forces electrostàtiques, i especialment, els actuadors electrostàtics de plaques paral.leles són molt usats, degut a la simplicitat del seu disseny. Tot i això, aquests actuadors tenen limitacions degut a la no-linealitat de les forces generades. La tesi analitza el sistema mecànic no-lineal actuat electrostàticament que forma el MEMS, per tal d'entendre'n les característiques, definir objectius de control de l'oscil.lació, i implementar un controlador robust, estable i eficient energèticament. A la primera part de la tesi es desenvolupa el modelat del sistema electromecànic complert. A partir de la formulació de paràmetres distribuïts aplicada a dispositius MEMS amb actuació electrostàtica, es deriva una formulació de paràmetres concentrats per a l'anàlisi i el disseny del control. Basat en aquest model, s'analitza energèticament la inestabilitat anomenada Pull-in, ampliant els resultats de l'enfocament clàssic al model amb motlles no-lineals. Dins de l'anàlisi, l'evolució dinàmica s'estudia per ser un factor important per a l'estabilitat. D'aquest estudi, la Resonant Pull-in Condition per a actuadors electrostàtics de plaques paral.leles es defineix i es valida experimentalment. Donada la importància de la dinàmica no-lineal del sistema i la seva riquesa de comportaments, s'utilitza Balanç d'Harmònics per tal de caracteritzar les oscil.lacions en estacionari. Aquesta caracterització permet entendre els factors claus per a obtenir oscil.lacions estables i d'amplitud elevada. El Balanç d'Harmònics dóna una conclusió important: qualsevol amplitud d'oscil.lació és possible per a qualsevol freqüència desitjada si s'aplica el voltatge adequat al ressonador. I el consum energètic associat a aquesta oscil.lació depèn de la freqüència triada. Llavors, basat en aquests resultats, quatre objectius es plantegen per a l'estratègia de control: oscil.lació estable amb amplituds elevades; robustesa de l'oscil.lació independentment de les imperfeccions dels MEMS; oscil.lació sinusoïdal sense harmònics per a aplicacions d'alta precisió; i baix consum energètic. La segona part de la tesi tracta la selecció, disseny i verificació dun controlador adequat per a aquests objectius. La revisió dels treballs existents en control de MEMS confirma que cap dels enfocaments actuals permet obtenir els objectius desitjats. En conseqüència, es proposa el disseny d'un nou controlador amb tres etapes per tal d'obtenir l'oscil.lació desitjada amb estabilitat i eficiència energètica. El controlador té tres llaços de control. Al primer llaç, un controlador robust dissenyat amb µ-síntesis gestiona les incertes es dels MEMS. El segon llaç inclou un controlador Ressonant, basat en el Principi del Model Intern, per a generar l'acció de control necessària per a obtenir l'oscil.lació desitjada. I el tercer llaç de control gestiona la minimització de l'energia consumida mitjançant un controlador basat en Extremum Seeking, el qual selecciona la freqüència de treball més eficient energèticament per a l'oscil.lació triada. El controlador proposat és capaç de generar automàticament el voltatge necessari, igual al previst pel Balanç d'Harmònics, per tal d'operar electrostàticament amb plaques paral.leles els ressonadors MEMS. Mitjançant simulació se'n verifica l'estabilitat, robustesa, inexistència d'harmònics i eficiència energètica de l'oscil.lació. Finalment, la implementació real és analitzada. En primer lloc, un nou esquema d'actuació per dos costats amb voltatges independents es proposa per aconseguir l'oscil.lació del ressonador en tot el rang d'amplituds. I en segon lloc, una modificació del sensat amb Modulació d'Amplitud Electromecànica s'utilitza per tancar el llaç de control de posició. Amb aquestes millores, un ressonador MEMS es dissenya per a ser fabricat i validar el control. Basat en aquest disseny, es proposa un procediment de test plantejat com a treball futur.
384

ISFAA : Implicit SPH for astrophysical apllications

Escartín Vigo, José Antonio 21 January 2016 (has links)
Computational simulation is one of the basic techniques of modern Astrophysics. The long-term time astrophysical processes cannot be treated with explicit approaches because that they are limited, in their maximum time step, by the restriction known as Courant-Friedrichs-Lewy Condition. In order to use implicit approaches a system of coupled algebraic equations needs to be solved. It is composed by all the equations of each one of the discrete points of the model and the usual solution comes through a Newton-Raphson scheme. The computational cost substantially increases with the number of unknowns of the model. In implicit schemes the properties of the current time step depends on the values of the unknown variables at that time step, so everything has to be calculated simultaneously. The consequence is that all equations should be jointly solved inverting of a huge sparse matrix (it is a squared n*v matrix, being n the number of particles and v the number of independent variables of the system). Due to this restriction, historically the implicit hydrodynamics had been only applied to one-dimensional systems. It would be very interesting to build an Implicit hydrocode taking advantage of the so called Smoothed Particle Hydrodynamics or SPH. This technique has been being applied successfully in astrophysics and cosmology and fluid physics. SPH integrates the dynamic fluid equations in each point of the Lagragian formalism (named particles because they have an associated mass) calculating speed, position, density and pressure as interpolations from neighbour particles. Unlike Eulerian methods the Lagragian approach does not need from a rectangular grid covering the integration domain. Therefore storage and computing time is not wasted in void regions. Fluids are decomposed in a set of particles where the numerical treatment of the three-dimensional movement derived from pressure and auto-gravity is easier. The goal of this thesis is to describe the main features and the implementation of a new SPH code which uses implicit approach, called ISFAA (Implicit SPH for Astrophysical Applications). This code enlarges the previous work from "An Implicit Smooth Particle hydrodynamic Code", Knapp C. (2000) and recent developments of the SPH scheme (based on the variation principle), artificial viscosity, gravity and thermal conductivity. Because of the huge effort which has to be invested to build and validate the new SPH code, it is pretended that in the future its use can be extended to a large number of scenarios. With this end a modular design has been implemented that allows to separate the code general treatment, the particular implementation of the basic evolutionary equations and the physical properties (equation of state, artificial viscosity, etc.). Furthermore, to find the solution of the equations' system, the library of parallel algorithms PARDISO, embodied in the library Intel MKL, has been used. Future improvements in these libraries will have a positive impact on the new code. To validate the code and check each one of the physical ingredients, a set of basic tests (point-like explosion, The wall heating shock, Rayleigh-Taylor instabilities, Free-Fall collapse, etc) were run and analyzed as well as several tests incorporating gravity (Toy Star, stability of a solar mass star and a White Dwarf). And finally, we show the evolution of a single quasi-static system. To handle with these scenarios we have built a slightly different implicit scheme, were velocities are not explicitly included in the equations of movement. The main aim of this tests is to demonstrate that an implicit quasi-hydrostatic scheme is able to work with time-steps many orders of magnitude large (10^4) than the characteristic current Courant time. / La simulación mediante ordenador es una de las herramientas básicas de la Astrofísica moderna. Los procesos de gran escala temporal son imposibles de tratar con enfoques explícitos ya que estos se encuentran limitados, en su paso de tiempo máximo, por la restricción conocida como condición de Courant-Friedrichs-Lewy. Para utilizar los enfoques implícitos se genera un sistema de ecuaciones algebraicas acopladas, habitualmente resuelto con un esquema de Newton-Raphson y compuesto por todas las ecuaciones de cada uno de los puntos de resolución del modelo. El coste computacional de resolución aumenta sustancialmente con el número de incógnitas que han de determinarse a cada paso de tiempo. Las propiedades del siguiente paso de tiempo dependen de los valores de las variables desconocidas en dicho paso de tiempo y por tanto todas han de ser calculadas simultáneamente. La consecuencia es que todo el sistema de ecuaciones se ha de resolver conjuntamente realizando la inversión de una matriz dispersa enorme (la matriz es cuadrada y tiene un tamaño de n*v, siendo n el numero de partículas y v el número de variables independientes del sistema). Debido a esta restricción, la hidrodinámica implícita históricamente ha sido aplicada a sistemas en una sola dimensión. Para su implementación multidimensional sería interesante utilizar un enfoque lagrangiano como el suavizado de partículas hidrodinámicas denominado "Smooth Particle Hydrodynamics" ó SPH. La técnica se viene aplicando con éxito al campo de la astrofísica, la cosmología y diferentes problemas de la física de fluidos. El SPH integra las ecuaciones de la dinámica de fluidos en cada punto del formalismo lagrangiano (denominado partícula por tener una masa asociada) calculando velocidad, posición, densidad y presión como una interpolación de los valores de las partículas vecinas. Los métodos lagrangianos, a diferencia de los eulerianos, no necesitan de una malla regular que cubra la totalidad del espacio de integración, por tanto, la memoria y el tiempo de cálculo no se desperdician en la resolución de espacios vacíos. Los fluidos se descomponen en un conjunto de partículas donde podemos tratar numéricamente de forma más sencilla el movimiento en tres dimensiones derivado de las fuerzas de presión y auto-gravedad. El objetivo de esta tesis es detallar las principales características y la implementación de un nuevo código SPH, con un enfoque implícito, al que hemos denominado ISFAA (Implicit SPH for Astrophysical Applications). Este código amplia el trabajo previo de Knapp. C., 2000 e incluye el esquema físico más actual del SPH (basado en el principio variacional), viscosidad artificial, gravedad y conductividad térmica. Dado el enorme esfuerzo que supone construir y validar un nuevo código SPH, se pretende que en el futuro su utilidad se extienda al mayor número posible de escenarios. Con este fin se ha optado por un diseño modular que separe el tratamiento general del código de la implementación concreta de ecuaciones evolutivas básicas y de las propiedades del material (ecuación de estado, viscosidad artificial, etc.). Además, para la resolución del sistema de ecuaciones se utiliza la biblioteca de algoritmos paralelos PARDISO, que incorpora la librería Intel MKL y que en el futuro tendrá mejoras que impactarán positivamente en el código. Para comprobar la corrección del código y probar cada uno de los ingredientes físicos, se especifican una serie de test básicos (Explosión puntual, The wall heating shock, inestabilidades de Rayleigh-Taylor, caída libre, etc.) y una serie de test con gravedad (Toy Star, estabilización de una estrella de masa solar y una enana blanca). Por último se muestra la evolución de un sistema cuasiestático, en el que las velocidades no se encuentran explícitamente en el modelo. Este test está orientado a demostrar que el código implícito podría aplicarse con éxito en estas situaciones, consiguiendo simular el sistema en largos intervalos temporales.
385

Detección y corrección de ideas previas erróneas en la praxis docente de la física con apoyo de las TIC

Soler Ruiz, Joan 28 January 2016 (has links)
In recent years with the emergence of new technologies, physics education has evolved towards more flexible and modern praxis. The master class where the teacher stands as main protagonist has been giving way to models in which the student is more participatory. There are different strategies that lead back these traditional channels toward more cooperative environment among students. Even textbooks have evolved into better resentations, better illustrations, clarity in the presentation of concepts, etc. This change has taken place only in form but not in substance. Throughout the years of teaching at the university it is found that students begin their studies with a set of misconceptions which are repeated year after year. This deficit is due to the progressive lack of the student interest and sometimes due to the too large extension of the programs to be covered. One of the most significant facts is that the Newton's third law it has been assimilated incorrectly. A well-known example is the one of the normal-weight forces in a block of m mass, where the student confuses the forces with an action-reaction pair. And the problem is that this fact is always repeated and there is no perception of changing the praxis to amend the error. The praxis carried out in different scenarios, both in text books as on internet, encourages students to acquire a misconception of the law. In this paper it is realized a full detailed study of the different reasons in which the students are "tempted" to acquire this wrong concept and it is proposed a methodology for students to acquire a cognitive model. The methodology proposed is based on crumbling the process of solving exercises on more basic stages which allow the students learn to learn, that is to say, strengthen their metaknowledge. It's about to use the same protocol to realize every exercise of dynamics, always applying the same steps and do that to reinforce its cognitive model. It means introducing a change in the praxis, different to the rest of scenarios: when building the diagram of free body for the various elements of the system, there is an obligation to indicate always the pair of action and reaction forces, although some of them would be irrelevant. This repetitive process in which every time that an interaction is analyzed it is indicated the pair of forces, allows to reinforce and learn the truly meaning of Newton's third law. The usual praxis that omit some of the pair of forces due to they are not necessary for the analytical study, induces students to ambiguities and wrong extrapolations. This new praxis is a significant change in the habits of teachers but ensures that students who follow this methodology, will completely abandon all the misconceptions and also will allow them to face new exercises without any difficulty, as they have learned to learn. The difference eradicates in the perspective of the students that until now was to see the exercises as different from each other and they did not have any method to solve them. They rely too much on the visual and mimetic comparison with prior exercises. With the new methodology, the students will see all the exercises as the same and will resolve them with a very strong pattern which will achieve their goal without any kind of effort. The commitment for this methodology allows us to break this conceptual error, whereas if we continue with traditional praxis, it is possible that our students complete their studies with these misconceptions, and if they become teachers, they will transmit their misconceptions to future generations and so on to infinity. / En los últimos años y con la aparición de las nuevas tecnologías, la enseñanza de la física ha ido evolucionando hacia praxis más flexibles y modernas. La clase magistral en que el profesor se erige como gran protagonista ha ido cediendo terreno hacia modelos en los que el alumno sea más participativo. Hay diversidad de estrategias que reconducen estos cauces tradicionales hacia entornos más cooperativos entre los alumnos. Incluso los libros de texto han evolucionado hacia mejores presentaciones, mejores ilustraciones, mayor claridad en la exposición de conceptos, etc. Este cambio ha tenido lugar solo en la forma pero no en el fondo. A lo largo de los años de docencia en la universidad se detecta que los alumnos inician sus estudios con un conjunto de conceptos erróneos y que además se van repitiendo curso tras curso. Generalmente se atribuye este déficit a la falta de interés progresivo del alumno y en ocasiones a que los programas que se deben cubrir son demasiados extensos. Uno de los hechos más significativos consiste en que la tercera ley de Newton se ha asimilado de forma incorrecta. Es bien conocido el ejemplo de las fuerzas peso y normal en un bloque de masa m, donde el alumno confunde a dichas fuerzas con una pareja acción-reacción. Este hecho se viene repitiendo año tras año y no se vislumbra ningún cambio de praxis para poder subsanar este error. La praxis que se lleva a cabo en distintos escenarios, ya sea en libros de texto como en internet, favorece que el alumno adquiera un concepto equivocado de dicha ley. En este trabajo se realiza un estudio detallado de los distintos motivos por los cuales se "tienta" al alumno a adquirir este concepto de forma errónea y se propone una metodología para que el alumno adquiera un modelo cognitivo. La metodología que se propone se basa en desmenuzar el proceso de resolución de los ejercicios en etapas más básicas que permiten al alumno aprender a aprender, es decir reforzar su metaconocimiento. Se trata de realizar todos los ejercicios de dinámica con el mismo protocolo, aplicando siempre los mismos pasos y reforzando así su modelo cognitivo. Para ello se introduce un cambio de praxis distinta al resto de escenarios: cuando se construye el diagrama del cuerpo libre para los distintos elementos del sistema se obliga a indicar siempre la pareja de fuerzas de acción y reacción, aunque alguna de ellas no resulte relevante. Este proceso repetitivo en el cual cada vez que se analiza una interacción se indica siempre la pareja de fuerzas, permite comprender y aprender el verdadero significado de la tercera ley de Newton. Las praxis habituales que omiten alguna de las parejas por no ser necesarias para el estudio analítico inducen al alumno a ambigüedades y extrapolaciones erróneas. Esta nueva praxis supone un cambio importante en las costumbres de los docentes pero garantiza que el alumno que sigue esta metodología abandona por completo todas las ideas erróneas de las que adolece y además le permite enfrentarse a ejercicios nuevos sin ningún tipo de dificultad, puesto que ha aprendido a aprender. La diferencia radica en que la perspectiva del alumno hasta ahora consistía en ver a los ejercicios como distintos entre ellos y no disponía de ningún método para resolverlo. Se apoya demasiado en la mimética visual y comparativa con otros ejercicios anteriores. Con la nueva metodología le permite ver a los ejercicios todos por un igual y los resuelve siguiendo un férreo patrón que le permite alcanzar su objetivo sin ningún tipo de esfuerzo. La apuesta por esta metodología permite romper este error conceptual, mientras que si seguimos con las praxis tradicionales nuestros alumnos pueden terminar sus estudios con todavía dichos errores y si se dedican a la enseñanza los transmitirán a las generaciones futuras y así hasta el infinito.
386

The role of revision in english-spanish software localization

Mick, Graciela 18 December 2015 (has links)
La tasca principal d'aquest projecte d'investigació empírica és explorar el procés de revisió en la traducció de la interfície de tres pogramas de programari desenvolupats per Siemens PLM Software Inc Centrarem la nostra atenció especialment en el paper dels revisors locals de l'idioma espanyol com una de els actors principals de les versions localitzades. L'equip format per traductors de plantilla i de revisors locals s'ha convertit en un tema d'interès per als investigadors, els professors de llengua i els professionals de la traducció. La revisió de la traducció és cada vegada més rellevant en l'ambient de la localització de programari. Les principals preguntes de recerca en aquest projecte són: La versió en espanyol és una fidel traducció del text escrit en anglès? Per què alguns clients mexicans prefereixen utilitzar les aplicacions de programari en idioma anglès? Per avaluar si la traducció i la funcionalitat de la interfície de les tres aplicacions eren apropiades, es va realitzar una extensa anàlisi lingüístic de seixanta segments de text extrets de les tres aplicacions traduïdes i revisades per traductors interns i revisors locals, respectivament. En segon lloc, un selecte grup de clients i usuaris de parla hispana de les aplicacions de Siemens completi un qüestionari d'avaluació electrònica. I per entendre millor les preferències d'idioma dels clients mexicans, es va realitzar una anàlisi lingüístic d'una sèrie d'informes de problemes presentats pels usuaris de les aplicacions durant sis mesos. L'anàlisi de les dades indica que els errors de traducció i el llenguatge es van corregir durant l'etapa de revisió. Les proves dels instruments de l'enquesta suggereix que la versió localitzada de la interfície d'usuari es llegeix amb fluïdesa i naturalitat. No obstant això, es va trobar que la principal diferència estadística entre la font i el text de destinació en el nombre dels errors funcionals. Per aquesta raó, alguns usuaris de parla hispana en realitat canviar a la versió en anglès dels productes de programari. I, finalment, l'evidència dels informes de problemes suggereix que el nombre d'Informe de problemes és baix durant el període de temps determinat i que no hi ha cap crítica per qüestions funcionals. / La tarea principal de este proyecto de investigación empírica es explorar el proceso de revisión en la traducción de la interfaz de tres pogramas de software desarrollados por Siemens PLM Software Inc. Centraremos nuestra atención en el papel de los revisores locales del idioma español como una de los actores principales de las versiones localizadas. El equipo formado por traductores de plantilla y de revisores locales se ha convertido en un tema de interés para los investigadores, los profesores de idioma y los profesionales de la traducción. La revisión de la traducción es cada vez más relevante en el ambiente de la localización de software. Las principales preguntas de investigación: ¿La versión en español es una fiel traducción del texto escrito en inglés? ¿Por qué algunos clientes mexicanos prefieren utilizar las aplicaciones de software en idioma inglés? Para evaluar si la traducción y la funcionalidad de la interfaz de las tres aplicaciones eran apropiadas, se realizó un extenso análisis linguístico de sesenta segmentos de texto extraídos de las tres aplicaciones traducidas y revisadas por traductores internos y revisores locales, respectivamente. En segundo lugar, un selecto grupo de clientes y usuarios de habla hispana de las aplicaciones completó un cuestionario electrónico. Y se realizó un análisis linguístico de una serie de informes de problemas presentados por los usuarios de las aplicaciones durante seis meses. El análisis demuestra que los errores de traducción y el lenguaje se corrigieron durante la etapa de revisión. Los resultados de la encuesta sugieren que la versión localizada de la interfaz se lee fluida y naturalmente. Sin embargo, se determinó que la principal diferencia estadística entre el texto de partida y el texto de llegada es el número de errores funcionales. Por esta razón, algunos usuarios de habla hispana prefieren utilizar la versión en inglés de los productos de software. Y, finalmente, el análisis de los informes de problemas linguísticos indica que el número fue bajo durante el periodo de tiempo determinado y que no hubo ninguna crítica por cuestiones funcionales. / The main task of this empirical research project is to explore the Spanish translation revision/review process of three software solutions developed by Siemens PLM Software Inc. We will focus our attention especially on the role of Spanish in-country reviewers or revisers as one of the main agents for localized output. The in-house translator and in-country reviewer team is emerging as a concept of interest to researchers, l and translation practitioners. Translation revision efforts are becoming increasingly more relevant in a software localization scenario. The main research questions in this project are: Does the Spanish version communicate what the English does? Why do some Mexican customers prefer to use the English-language software applications? To evaluate the language appropriateness and functionality of the user interface of the PLM software products in the Spanish-localized versions, we conducted a detailed language evaluation of sixty UI segments translated and revised by in-house translators and in-country reviewers respectively. The data analysis indicates that translation and language errors were corrected during the revision stage. Furthermore, an electronic assessment questionnaire was completed by a select group of Siemens PLM software Spanish-speaking customers. The evidence from the survey instruments suggests that the localized version of the user interface reads fluently and naturally. However, the main statistical difference between the source and the target text was found in the number of functional errors. For this reason, some Spanish-speaking end-users actually switch to the English version of the software solutions. And finally, to further understand the Mexican customers’ language preference, we collected and analyzed a number of problem reports submitted by our application users during a six-month period. The evidence from the problem reports suggests that the number of PRs is low for that particular time frame and that there is no indication of any functional issues. The research findings should have important implications for the practice of software translation revision and for raising awareness that localization is a team effort involving more players than just translators and revisers.
387

Estratègia 2D per al disseny de reflectors amb facetes de forma lliure

Tomàs Corominas, Núria 11 November 2015 (has links)
This work can be framed in the field of computer-aided optical systems design and it is a part of a larger project in which automated processes are studied and implemented aiming to reduce the time span that stands between the idea and the functional device. One of the problems in optical systems optimization is the need for a predesign good enough to start, so that the automatic system is effective and leads to a quality optical system. To define a general criteria for initial conditions that are valid to start a process of automatic design in the specific field of non-imaging optics, is an objective which contributes to the capacity of the industry respending to market demands . Astrategy is defined to design reflectors as non-imaging optical systems in two stages:the first stage performs the design of a single reflective freeform surface providing a predetermined light distribution.The second stage defines the method that can generate valid initial configurations for the overall design of non- imaging optical systems . In order to design a one surface freeform reflector, a 20 strategy to build 30 solutions is defined which can describe the geometry of the freeform reflector using Bezier surfaces through a simplified calculation process in 20. The process of choosing 20 planes where to apply the strategy is based on expanding the criteria on what is accepted as a solution to transport light between two points. The basis and appropriate approaches have been defined in order to go from an exact solution to a plausible solution. An alternative method is presented, which is approximate and computationallysimpler, but allows plausible solutions in the general case that the source is not placed in the plane defined by the direction normal to the facet. In this case, the projection of the source in this plane provides an acceptable solution if you choose the right working conditions. The error has been delimited when using such a projection instead of finding the exact point that corresponds to one of the ellipse's focus contained in the plane. lt is found that the error is acceptable within the purposes of the present study. Applying the formulation of Snell's law in Bezier curves placed on strategic planes, a method for calculating the control points that defines the solution as a Bezier surface is provided.For that purpose, enhancement functions responding to various purposes, such as concentrate or distribute light around the chosen target points, are used. Finally, a method to generate valid initial configurations to design non imaging optics systems is defined, in the context of a faceted reflector. A method to segment the reflector based on the source luminance distribution is described.This method must take into account, necessarily, the segmentation of the source. Finally a method to segment the target surface is also described. The proposed working method has been validated by comparing the distributions of light predicted by the method with those obtained with commercial software. This verification has been made for concentrators and expander functions, for original facets sizes between 5 and 40mm and relative inclinations of 40 degrees, with point and extended source ofvarious sizes.In all cases, the discrepancies are still under 15% (almost always less than 8%), thus it can be concluded that the proposed method of generating 30 surface from 20 strategy, gives satisfactory results using the proposed surfaces as starting point for a more complete optimization process. / El present treball s'emmarca en el camp del disseny de sistemes òptics assistit per ordinador i forma part d'un projecte mes ampli en el que s'estudien i s'implementen processos automàtics de disseny destinats a reduir el lapse temporal que s'interposa entre la idea i el dispositiu funcional. Un dels problemes de l'optimització de sistemes òptics es la necessitat d'un predisseny prou acurat per tal que el sistema automàtic sigui eficaç i condueixi a un sistema òptic de qualitat. Definir els criteris generals per donar unes condicions inicials que siguin valides per a l'inici d'un procés automàtic de disseny, en el camp específic de l’òptica no formadora d'imatges, es un objectiu que contribueix a la capacitat de reacció de la industria davant les demandes del mercat. Es defineix una estratègia per el disseny de reflectors corn a sistemes òptics no formadors d'imatges en dues etapes: la primera dona el disseny de reflectors d'una sola superfície de forma lliure que proporcionin una distribució de llum preestablerta i la segona defineix el mètode que permet generar configuracions inicials valides per al disseny global de sistemes no formadors d'imatges. Per dissenyar reflectors d'una sola superfície de forma lliure es defineix una estratègia 2D per construir solucions 3D que permet descriure la geometria del reflector de forma lliure mitjançant superfícies de Bezier a traves d'un procés simplificat de càlcul en 2D. El procés d'elecció dels plans 2D on aplicar l’estratègia es fonamenta en l'ampliació del criteri de que s'accepta corn a solució al problema de transport de llum entre dos punts i s'han donat les bases i aproximacions adequades per plantejar el pas d'una solució exacte a una solució plausible. S'ha donat un mètode aproximat alternatiu i computacionalment mes simple que permet donar solucions plausibles en el cas general en que la font no es trobi inicialment en el pia definit per la direcció normal a la faceta. En aquest cas, la projecció de la font en aquest pia proporciona, una solució acceptable si es trien les condicions de treball adequades. S'ha acotat I'error que es comet en utilitzar la projecció de la font sobre el pia enlloc de trobar el punt exacte que correspon a un dels focus de l'el·lipse continguda en el pia i s'ha vist que es acceptable en els propòsits de trobar solucions plausibles del present treball. Aplicant la formulació de la llei de Snell en corbes de Bezier situades en els plans estratègicament escollits, es defineix el mètode per calcular els punts de control que defineixen la superfície de Bezier que dona solució al problema plantejat. Per això s'utilitzen funcions de millora que responen a propòsits diversos, corn ara concentrar o distribuir la llum al voltant dels punts objectius trials. Finalment es defineix un mètode que permet generar configuracions inicials valides per al disseny global de sistemes no formadors d'imatges en el context de disseny d'un reflector facetat. Per fer-ho s 'ha descrit un mètode de segmentació del reflector basat en la distribució de luminància de la font i que ha de tenir en compte, necessàriament, la segmentació de la font, i per últim s'ha descrit un mètode de segmentació de la superfície objectiu. S'ha validat el mètode de treball i les solucions obtingudes comparant les distribucions de llum predites pel mètode amb les obtingudes amb un software comercial. Aquesta verificació s'ha efectuat per a funcions concentradores i expansores, per mides originals de facetes d'entre 5 i 40 mm i per inclinacions relatives de fins a 40 graus, tant amb font puntual corn amb fonts extenses de diverses mides. En tots els casos les discrepàncies han estant menors del 15% (casi sempre menors del 8%) i així es pot concloure que el mètode proposat de generar superfícies 3D a partir d’estratègies 2D dona un resultat satisfactori per utilitzar les superfícies proposades corn a punt de partida d'un procés d'optimització mes completa
388

Contributions to provide a QoS-aware self-configured framework for video-streaming services over ad hoc networks

Mezher, Ahmad Mohamad 22 April 2016 (has links)
Ad hoc networks have attracted much attention from the research community over the last years and important technical advances have risen as a consequence. These networks are foreseen as an important kind of next generation access networks, where multimedia services will be demanded by end users from their wireless devices everywhere. In this thesis, we specially focus our research work on mobile ad hoc networks (MANETs) and on vehicular ad hoc networks (VANETs), two kind of ad hoc networks over which interesting multimedia services can be provided. The special haracteristics of MANETs/VANETs, such as mobility, dynamic network topology (specially in VANETs), energy constraints (in case of MANETs), infrastructureless and variable link capacity, make the QoS (Quality of Service) provision over these networks an important challenge for the research community. Due to that, there is a need to develop new routing protocols specially designed for MANETs and VANETs able to provide multimedia services. The main objective of this thesis is to contribute in the development of the communication framework for MANETs and VANETs to improve decisions to select paths or next hops in the moment of forwarding video-reporting messages. In this way, it would be possible to have a quick answer to manage daily problems in the city and help the emergency units (e.g., police, ambulances, health care units) in case of incidents (e.g., traffic accidents). Furthermore, in case of VANETs, a real scenario must be created and thus we have analysed the presence of obstacles in real maps. Also, in case of an obstacle found between the current forwarding node and the candidate next forwarding node, the packet is stored in a buffer, for a maximum time, until a forwarding neighbour node is found; otherwise, the packet is dropped. To improve the communication framework for MANETs, we propose a new routing protocol based on a game-theoretical scheme for N users specially designed to transmit video-reporting messages. Our proposal makes the network more efficient and provides a higher degree of satisfaction of the users by receiving much more packets with a lower average end-to-end delay, lower jitter and higher PSNR (Peak Signal-to-Noise Ratio). In addition, we propose a geographical routing protocol for VANETs that considers multiple metrics named 3MRP (Multimedia Multimetric Map-Aware Routing Protocol) [1]. 3MRP is a geographical protocol based on hop-by-hop forwarding. The metrics considered in 3MRP are the distance, the density of vehicles in transmission range, the available bandwidth, the future trajectory of the neighbouring nodes and the MAC layer losses. Those metrics are weighted to obtain a multimetric score. Thus, a node selects another node among its neighbours as the best forwarding node to increase the percentage of successful packet delivery, minimizing the average packet delay and offering a certain level of quality and service. Furthermore, a new algorithm named DSW (Dynamic Self-configured Weights) computes for each metric its corresponding weight depending on the current network conditions. As a consequence, nodes are classiffied in a better way. / Les xarxes sense fils ad hoc han captat molt l'atenció per part de la comunitat científica en els últims anys, a més dels importants avenços tècnics que han sorgit. Aquestes xarxes es preveuen com un tipus important de xarxes d'accés de nova generació, a on els serveis multimèdia seran requerits pels usuaris a través dels seus dispositius sense fils desde tot arreu. En aquesta tesi, centrem el nostre treball especialment en les xarxes mòbils ad hoc (MANET, Mobile Ad hoc Network) i en les xarxes vehiculars ad hoc (VANET, Vehicular Ad hoc Network). Les característiques especials de les MANETs i les VANETs, com la mobilitat, la topologia dinàmica de la xarxa (especialment en VANETs), les restriccions de bateria (en cas de MANETs), l'absència d'infrastructura i la capacitat variable de l'enllaç sense fil fa que la provisió de la qualitat de servei en aquestes xarxes sigui un repte important per a la comunitat científica. A causa d'això, hi ha la necessitat de desenvolupar nous protocols d'encaminament especialment dissenyats per a MANETs i VANETs capaços de proporcionar els serveis de multimèdia requerits. L'objectiu principal d'aquesta tesi és proveir millores en la comunicació per a les xarxes ad hoc MANET i VANET per millorar les decisions a l'hora de seleccionar els propers camins o nodes, respectivament, en el moment de l'enviament de les trames del video. D'aquesta manera serà possible tenir una resposta ràpida per resoldre els problema diaris a la ciutat i ajudar a les unitats d'emergència (per exemple, policia, ambulàncies, unitats de salut) en cas d'incidents, com ara els accidents de trànsit. Per analitzar adequadament les nostres propostes sobre VANETs hem dissenyat un entorn de simulació realista que incorpora la presència d'edificis en mapes reals i en el cas que hi hagi un obstacle entre el node actual i el candidat per a ser el pròxim salt el paquet s'emmagatzema en un buffer, per un temps màxim, fins a trobar un nou candidat; en cas contrari, es descarta el paquet. Per millorar les comunicacions en les MANETs, proposem un nou protocol d'encaminament basat en teoria de jocs per a N usuaris especialment dissenyat per a enviar missatges de vídeo. Això fa que la xarxa sigui més eficient, i així s'aconsegueix un major grau de satisfacció dels usuaris en rebre molts més paquets amb un menor retard mig extrem a extrem, menor variació del retard (jitter ) i major PSNR (Relació Senyal Soroll de Pic) . A més, es proposa un protocol d'encaminament geogràfic basat en el reenviament hop-by-hop per a VANETs anomenat 3MRP (Multimedia Multimetric Map-Aware Routing Protocol ) [1] que prèn en consideració múltiples mètriques. Les mètriques considerades en 3MRP són la distància a destinació, la densitat de vehicles en el rang de transmissió, l'ample de banda disponible, la trajectòria futura dels nodes veíns i la perdua de paquets a la capa MAC. Aquestes mètriques es ponderen per a obtenir una puntuació multimètrica. Així, un node pot seleccionar el millor node de reenviament entre tots els seus veíns per augmentar la probabilitat d' èxit de lliurament de paquets, minimitzant el retard mitjà dels paquets i oferint un cert nivell de qualitat de servei. / Las redes ad hoc han llamado mucho la atención por parte de la comunidad científica en los últimos años, además de los importantes avances técnicos que han surgido. Estas redes se prevén como un tipo importante de redes de acceso de nueva generación, donde los servicios multimedia sean requeridos por los usuarios a través de sus dispositivos inalámbricos desde todas partes. En esta tesis, centramos nuestro trabajo de investigación especialmente en las redes móviles ad hoc (MANET, Mobile Ad hoc Network) y las redes vehiculares ad hoc (VANET, Vehicular Ad hoc Network). Las características especiales de las MANETs y las VANETs, como la movilidad, la topología dinámica de la red (especialmente en VANETs), las restricciones de batería (en caso de MANETs), la ausencia de infraestructura y la capacidad variable del enlace inalámbrico hace que la provisión de la calidad de servicio en estas redes sea un reto importante para la comunidad científica. Debido a esto, existe la necesidad de desarrollar nuevos protocolos de encaminamiento especialmente diseñados para MANETs y VANETs capaces de proporcionar los servicios de multimedia requeridos. El objetivo principal de esta tesis es proveer mejoras en la comunicación para las redes ad hoc MANET y VANET para mejorar las decisiones a la hora de seleccionar los próximos caminos o nodos, respectivamente, en el momento del envío de las tramas del video y de esta manera sería posible tener una respuesta rápida para resolver los problema diarios en la ciudad y ayudar a las unidades de emergencia (por ejemplo, policía, ambulancias, unidades de salud) en caso de incidentes, como accidentes de tráfico. Para analizar adecuadamente nuestras propuestas sobre VANETs hemos diseñado un entorno de simulación realista que incorpora la presencia de edificios en mapas reales. En el caso de que haya un obstáculo entre el nodo actual y el candidato para ser el próximo salto el paquete se almacena en un buer, durante un tiempo máximo, hasta encontrar un nuevo candidato; en caso contrario, se descarta el paquete. Para mejorar las comunicaciones en las MANETs, proponemos un nuevo protocolo de encaminamiento basado en teoría de juegos para N usuarios especialmente diseñados para enviar mensajes de video. Esto hace que la red sea más eficiente, y así se consigue un mayor grado de satisfacción de los usuarios al recibir muchos más paquetes con un menor promedio de retardo de extremo a extremo, variación de retardo (jitter) y mayor PSNR (Relación Señal a Ruido de Pico). Además, se propone un protocolo de encaminamiento geográfico basado en el reenvío de salto-a-salto para VANETs llamado 3MRP (Multimedia multimetric Map-Aware Routing Protocol) [1] que incluye diversas métricas. Las métricas consideradas en 3MRP son la distancia al destino, la densidad de vehículos en el rango de transmisión, el ancho de banda disponible, la trayectoria futura de los nodos vecinos y la pérdida de paquetes en la capa MAC. Estas métricas se ponderan para obtener una puntuación multimetricanal. Así, un nodo puede seleccionar el mejor nodo de reenvío entre todos sus vecinos para aumentar la probabilidad de éxito de entrega de paquetes, minimizando el retardo medio de los paquetes y ofreciendo un cierto nivel de calidad de servicio. Por otra parte, se ha diseñado un nuevo algoritmo capaz de dar a cada métrica su correspondiente peso en función de las condiciones actuales de la red. De esta forma, los nodos se pueden clasificar de una mejor manera. Por último, se propone un nuevo protocolo de encaminamiento para VANETs llamado G-3MRP (Game Theoretical Multimedia Multimetric Map-aware Routing Protocol) [2] para enviar mensajes de video basado en teoría de juegos para N usuarios en escenarios urbanos. G-3MRP se basa en el protocolo de encaminamiento 3MRP. G-3MRP utiliza hasta tres nodos a través de los cuales los tres tipos de cuadros de video I, P y B serán enviados. Las métricas utilizadas son las mismas que en 3MRP. G-3MRP logra una mayor grado de satisfacción de los usuarios mediante la recepción de muchos más paquetes de video y con un mayor nivel de PSNR, que la anterior propuesta 3MRP+DSW. También hemos analizado el problema de detección de obstáculos en mapas reales para VANETs en escenarios urbanos. Para este propósito, hemos desarrollado nuestra herramienta REVsim [3] de tal forma que puede estar fácilmente integrada en nuestra propuesta de protocolo de encaminamiento para que las simulaciones sean más realistas.
389

Contributions to the routing of traffic flows in multi-hop IEEE 802.11 wireless networks

Catalán Cid, Miguel 10 February 2016 (has links)
The IEEE 802.11 standard was not initially designed to provide multi-hop capabilities. Therefore, providing a proper traffic performance in Multi-Hop IEEE 802.11 Wireless Networks (MIWNs) becomes a significant challenge. The approach followed in this thesis has been focused on the routing layer in order to obtain applicable solutions not dependent on a specific hardware or driver. Nevertheless, as is the case of most of the research on this field, a cross-layer design has been adopted. Therefore, one of the first tasks of this work was devoted to the study of the phenomena which affect the performance of the flows in MIWNs. Different estimation methodologies and models are presented and analyzed. The first main contribution of this thesis is related to route creation procedures. First, FB-AODV is introduced, which creates routes and forwards packets according to the flows on the contrary to basic AODV which is destination-based. This enhancement permits to balance the load through the network and gives a finer granularity in the control and monitoring of the flows. Results showed that it clearly benefits the performance of the flows. Secondly, a novel routing metric called Weighted Contention and Interference routing Metric (WCIM) is presented. In all analyzed scenarios, WCIM outperformed the other analyzed state-of-the-art routing metrics due to a proper leveraging of the number of hops, the link quality and the suffered contention and interference. The second main contribution of this thesis is focused on route maintenance. Generally, route recovery procedures are devoted to the detection of link breaks due to mobility or fading. However, other phenomena like the arrival of new flows can degrade the performance of active flows. DEMON, which is designed as an enhancement of FB-AODV, allows the preemptive recovery of degraded routes by passively monitoring the performance of active flows. Results showed that DEMON obtains similar or better results than other published solutions in mobile scenarios, while it clearly outperforms the performance of default AODV under congestion Finally, the last chapter of this thesis deals with channel assignment in multi-radio solutions. The main challenge of this research area relies on the circular relationship between channel assignment and routing; channel assignment determines the routes that can be created, while the created routes decide the real channel diversity of the network and the level of interference between the links. Therefore, proposals which join routing and channel assignment are generally complex, centralized and based on traffic patterns, limiting their practical implementation. On the contrary, the mechanisms presented in this thesis are distributed and readily applicable. First, the Interference-based Dynamic Channel Assignment (IDCA) algorithm is introduced. IDCA is a distributed and dynamic channel assignment based on the interference caused by active flows which uses a common channel in order to assure connectivity. In general, IDCA leads to an interesting trade-off between connectivity preservation and channel diversity. Secondly, MR-DEMON is introduced as way of joining channel assignment and route maintenance. As DEMON, MR-DEMON monitors the performance of the active flows traversing the links, but, instead of alerting the source when noticing degradation, it permits reallocating the flows to less interfered channels. Joining route recovery instead of route creation simplifies its application, since traffic patterns are not needed and channel reassignments can be locally decided. The evaluation of MR-DEMON proved that it clearly benefits the performance of IDCA. Also, it improves DEMON functionality by decreasing the number of route recoveries from the source, leading to a lower overhead. / El estándar IEEE 802.11 no fue diseñado inicialmente para soportar capacidades multi-salto. Debido a ello, proveer unas prestaciones adecuadas a los flujos de tráfico que atraviesan redes inalámbricas multi-salto IEEE 802.11 supone un reto significativo. La investigación desarrollada en esta tesis se ha centrado en la capa de encaminamiento con el objetivo de obtener soluciones aplicables y no dependientes de un hardware específico. Sin embargo, debido al gran impacto de fenómenos y parámetros relacionados con las capas físicas y de acceso al medio sobre las prestaciones de los tráficos de datos, se han adoptado soluciones de tipo cross-layer. Es por ello que las primeras tareas de la investigación, presentadas en los capítulos iniciales, se dedicaron al estudio y caracterización de estos fenómenos. La primera contribución principal de esta tesis se centra en mecanismos relacionados con la creación de las rutas. Primero, se introduce una mejora del protocolo AODV, que permite crear rutas y encaminar paquetes en base a los flujos de datos, en lugar de en base a los destinos como se da en el caso básico. Esto permite balacear la carga de la red y otorga un mayor control sobre los flujos activos y sus prestaciones, mejorando el rendimiento general de la red. Seguidamente, se presenta una métrica de encaminamiento sensible a la interferencia de la red y la calidad de los enlaces. Los resultados analizados, basados en la simulación de diferentes escenarios, demuestran que mejora significativamente las prestaciones de otras métricas del estado del arte. La segunda contribución está relacionada con el mantenimiento de las rutas activas. Generalmente, los mecanismos de mantenimiento se centran principalmente en la detección de enlaces rotos debido a la movilidad de los nodos o a la propagación inalámbrica. Sin embargo, otros fenómenos como la interferencia y congestión provocada por la llegada de nuevos flujos pueden degradar de forma significativa las prestaciones de los tráficos activos. En base a ello, se diseña un mecanismo de mantenimiento preventivo de rutas, que monitoriza las prestaciones de los flujos activos y permite su reencaminamiento en caso de detectar rutas degradadas. La evaluación de esta solución muestra una mejora significativa sobre el mantenimiento de rutas básico en escenarios congestionados, mientras que en escenarios con nodos móviles obtiene resultados similares o puntualmente mejores que otros mecanismos preventivos diseñados específicamente para casos con movilidad. Finalmente, el último capítulo de la tesis se centra en la asignación de canales en entornos multi-canal y multi-radio con el objetivo de minimizar la interferencia entre flujos activos. El reto principal en este campo es la dependencia circular que se da entre la asignación de canales y la creación de rutas: la asignación de canales determina los enlaces existentes la red y por ello las rutas que se podrán crear, pero son finalmente las rutas y los tráficos activos quienes determinan el nivel real de interferencia que se dará en la red. Es por ello que las soluciones que proponen unificar la asignación de canales y el encaminamiento de tráficos son generalmente complejas, centralizadas y basadas en patrones de tráfico, lo que limita su implementación en entornos reales. En cambio, en nuestro caso adoptamos una solución distribuida y con mayor aplicabilidad. Primero, se define un algoritmo de selección de canales dinámico basado en la interferencia de los flujos activos, que utiliza un canal común en todos los nodos para asegurar la conectividad de la red. A continuación, se introduce un mecanismo que unifica la asignación de canales con el mantenimiento preventivo de las rutas, permitiendo reasignar flujos degradados a otros canales disponibles en lugar de reencaminarlos completamente. Ambas soluciones demuestran ser beneficiosas en este tipo de entornos.
390

A pilot study to assess the usability of a novel psychotherapeutic interactive gaming application as a tool to measure facial emotion recognition in patients with schizophrenia

Gonzalez, Roberto Pablo 03 February 2016 (has links)
This work presents the development and the assessment of Feeling Master, a novel psychotherapeutic interactive gaming application that uses cartoon stimuli to measure facial emotion recognition in schizophrenic patients. A pilot study among 24 patients with schizophrenia (PS) and 17 healthy control (HC) subjects was conducted to assess the usability of Feeling Master as a tool to measure facial emotion recognition ability in schizophrenic patients. The usability assessment of the application was based on three criteria: adaptability, effectiveness, and efficiency of the tool (Nielsen, 1994; Schwebel, McClure, & Severson, 2014). The study also attempted to determine whether people with schizophrenia would show emotion recognition deficits and if such deficits would vary among the basic emotions described by Ekman and Friesen (1971). Moreover, our team aimed to relate the results of facial emotion recognition within the schizophrenia group to clinical variables such as the Personal and Situational Attribution Questionnaire (IPSAQ). Descriptive data reveal that Feeling Master is a useful tool for measuring facial emotion recognition in patients with schizophrenia. Schizophrenia patients showed impairments in the emotions recognition. PS subjects remained slower than HC (Average time: F(1.38) = 15.1, p = 0.000). On the other hand, we did not find significant values for the overall emotion discrimination (average accuracy: F(1.38) = 0.733, p>0.05), but we found significant error rates for discrimination in fear: F=(1.38)=8.2, p < 0.007) ) using Fisher¿s exact test to compare errors between PS and HC groups. Using the Feeling Master tool, the performances of patients with schizophrenia were compared to those of healthy control volunteers on computerized tasks of emotion recognition, and the Personal and Situational Attribution Questionnaire (IPSAQ) was administered to determine whether emotion processing deficits were correlated with the attributional style. The correlations between correct response on the Feeling Master and Personal and Situational Attribution Questionnaire (IPSAQ) were not significant, but they showed interesting relations: Sad vs. External Situational Negative, Rho= 0.346, p=0.106; Sad vs. External Situational Positive, Rho=0.320, p=0.136. Finally, the Technology Acceptance Model (TAM) was used to study the acceptance among professionals of the Feeling Master as a tool to measure facial emotion recognition in rehabilitation psychiatric units. The TAM study was conducted among 66 experienced mental health professionals. Except for Perceived Ease of Use (PEOU), which has a high value, the other TAM construct values (i.e., Perceived usefulness (PU), Attitude Toward Using (ATU), Enjoyment (E), and Behavioral Intention (BI)) should be improved. In conclusion, the study puts forward the usability of a novel, psychotherapeutic interactive gaming tool used in Facial Emotion Recognition for people with schizophrenia. These findings lend support to the notion that difficulties in emotion recognition are associated with key cognitive deficits among individuals with schizophrenia. These findings were consistent with previous studies. / Este trabajo presenta el desarrollo y la evaluación de Feeling Master, un novedoso videojuego psicoterapéutico que utiliza ilustraciones faciales como estímulos para medir el reconocimiento de emociones en pacientes esquizofrénicos. Se realizó un estudio piloto a 24 pacientes con diagnostico de esquizofrenia (PS) y 17 controles voluntarios (HC) para evaluar la usabilidad de Feeling Master como herramienta para la medición del reconocimiento de emociones faciales en pacientes esquizofrénicos. La evaluación de la usabilidad de Feeling Master se baso en tres criterios: la adaptabilidad, la eficacia y la eficiencia de la herramienta (Nielsen, 1994; Schwebel et al., 2014). Conjuntamente, se intentó determinar si las personas enfermas de esquizofrenia muestran déficits en el reconocimiento de las emociones faciales y si tales déficits varían entre las distintas emociones básicas descritas por Ekman y Friesen (1971). Además, se relacionaron los resultados del reconocimiento de emociones faciales del grupo de personas enfermas de esquizofrenia con variables clínicas como el cuestionario de atribuciones internas, personales y situacionales (IPSAQ). Los resultados obtenidos en este estudio revelan que Feeling Master es una herramienta efectiva para la medición del reconocimiento de emociones faciales en personas enfermas de esquizofrenia. Los pacientes con diagnostico de esquizofrenia mostraron un déficit de reconocimiento de las emociones faciales. El grupo PS necesitó mas tiempo que el grupo HC para el reconocimiento de las emociones (tiempo medio: F (1,38) = 15,1, p = 0,000). El estudio no evidenció valores significativos para la discriminación en general de emociones faciales (precisión media: F (1,38) = 0.733, p> 0,05). Por otra parte, se encontró una tasa de error significativo para la discriminación en el miedo: F = (1 , 38) = 8,2, p <0.007)) con la prueba exacta de Fisher para comparar errores entre los grupos PS y HC. Los resultados del reconocimiento de emociones faciales del grupo PS obtenidos con el Feeling Master, se relacionaron con el IPSAQ para determinar si existen correlaciones entre el déficit de reconocimiento de las emociones y el estilo atribucional. Las correlaciones entre los resultados obtenidos por el Feeling Master y el IPSAQ no fueron significativas, pero se encontraron las siguientes relaciones interesantes: tristeza vs. externa situacional negativa, Rho = 0,346, p = 0,106; tristeza vs. externa situacional positiva, Rho = 0,320, p = 0,136. Por último, se utilizo el modelo de aceptación de la tecnología (TAM) para estudiar la adopción de Feeling Master como herramienta para el reconocimiento de emociones faciales en unidades psiquiátricas de rehabilitación. El estudio TAM se realizó a 66 profesionales experimentados de la salud mental. Excepto por la facilidad de uso percibida, que ha obtenido un alto valor, el resto de los constructos del TAM (utilidad percibida , actitud hacia el uso, placer de uso y la intención hacia el uso) deben mejorar sus valores. hacia el uso) deben mejorar sus valores. Como conclusión podemos afirmar que, este trabajo demuestra la correcta usabilidad de Feeling Master como herramienta para la medición del reconocimiento de emociones faciales en personas enfermas de esquizofrenia. Conjuntamente, los resultados de nuestra investigación confirman la existencia de un déficit de reconocimiento de las emociones faciales en las personas enfermas de esquizofrenia. Estos resultados son consistentes con el resto de la literatura científica. de la salud mental. Excepto por la facilidad de uso percibida, que ha obtenido un alto valor, el resto de los constructos del TAM (utilidad percibida , actitud hacia el uso, placer de uso y la intención hacia el uso) deben mejorar sus valores.

Page generated in 0.0451 seconds