• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 5
  • 1
  • Tagged with
  • 27
  • 8
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La enseñanza de la pronunciación en el aula : Un estudio de la enseñanza de la pronunciación española en la escuela primaria de Suecia / The Teaching of Pronunciation in the Classroom : A study about the teaching of Spanish pronunciation in the Swedish compulsory school

Hofvander, Anna, Mörk, Annica January 2012 (has links)
Estudiar el español como lengua extranjera se ha hecho muy popular en Suecia durante los últimos años. Uno de los problemas más grandes al que se enfrentan los aprendices de una lengua extranjera en el contexto sueco es la falta de la práctica diaria de la lengua meta. Por ello es importante que la enseñanza en el contexto institucional ofrezca la posibilidad de desarrollar la producción oral y, de ese modo, la pronunciación. El propósito de nuestra monografía es investigar cómo trabajan los profesores con la enseñanza de la pronunciación del español como lengua extranjera de nivel 2 en las escuelas primarias de Suecia. Mediante observaciones y entrevistas complementarias a cinco profesores, queremos enterarnos de las estrategias, tendencias y patrones de la enseñanza de la pronunciación y cómo los profesores las llevan a cabo en la práctica. El resultado de nuestra investigación muestra que los profesores observados tienen estrategias en cuanto a su trabajo con la pronunciación en el aula. La conclusión es que el profesor debe reflexionar sobre la manera de enseñar la pronunciación y debe ajustar la enseñanza a sus estudiantes. Además el profesor debe colaborar con el grupo de estudiantes para crear un ambiente amistoso y positivo en el aula donde los estudiantes se atrevan a hablar.
2

La administración del cuerpo infantil en el s. XVIII: una lectura sobre el inicio de la ortopedia infantil

Yutzis, Daniela 14 December 2009 (has links)
A partir de la lectura de una fuente primaria, el texto de Andry <i>L’orthopédie ou l’art de prevenir et corriger dans les enfans, les difformités du corps</i> el trabajo se centra en una lectura histórico-política del inicio de la ortopedia infantil en Francia del siglo XVIII. Esta investigación en el recorrido de las pedagogías de la postura aborda el ajuste de la arquitectura corporal de la anatomía del cuerpo que recorre estéticas y políticas que mantienen el interés por la rectitud corporal. El triunfo del cuidado del cuerpo infantil se constituye en una alianza provechosa de un médico que pauta y una madre que, controlando, ejecuta. La población y los cuerpos individuales pasan a ser una cuestión pública, pasan a ser el objetivo de las estrategias políticas: el cuerpo comienza a ser organizadamente introducido en los engranajes de producción.
3

Evaluación de métodos de corrección por datos omitidos en el contexto de desigualdad de oportunidades

Luengo Aravena, Daniela 15 May 2013 (has links)
TESIS PARA OPTAR AL GRADO DE Magíster en Economía / El presente trabajo evalúa el desempeño de procedimientos simples-ampliamente utiliza- dos en la literatura para corregir problemas de pérdida de datos-cuando la distribución de la omisiónes no aleatoria. Esto,dentro del contexto de la medición de la desigualdad y la de- sigualdad de oportunidades en el mercado laboral .Para ello se utiliza un experimento en donde se generan observaciones omitidas desde un vector de datos completo,siguiendo un proceso estocástico conocido y luego,se aplica dicha muestra con datos faltantes, algunos métodos de corrección, asumiendo que no se está al tanto de la distribución que sigue la pérdida de datos.
4

El concepto de democracia en A. de TOCQUEVILLE(una lectura filosófico-política de "La Democracia en América")

Ros Cherta, Juan Manuel 15 June 2000 (has links)
Sin olvidar las aportaciones recientes de la ciencia social en la recuperación del pensamiento de TOCQUEVILLE en "La Democracia en América", se plantea la hipótesis novedosa de interpretarlo desde la filosofía política, En este sentido, se trata de explicitar los principales supuestos normativos de su concepción de la democracia moderna. En la primera parte, se analiza su visión humanista del "homo democraticus" y su crítica al individualismo. En la segunda parte, se estudia su teoría sobre la problemática relación entre los valores de la libertad y de la igualdad concluyéndose que su justa articulación es necesaria para que la democracia liberal no degenere en el "despotismo democrático"(la "tiranía de la mayoría", la "partitocracia" el "paternalismo providencialista del Estado", etc)lo cual pasa por no confundir la igualdad con "la pasión igualitarista" ni la libertad con la "dogmática liberista" de la independencia privada. En la tercera parte, se resalta su reivindicación en favor del protagonismo de la sociedad civil como argumento para una profundización republicana de la democracia liberal. Por todo ello, se concluye que la filosofía política tocquevilleana constituye una valiosa fuente de inspiración para cuestionar la concepción elitista de la democracia y avanzar en la construcción de alternativas más radicales y/o participativas.
5

Disminución del ruido y corrección del desenfoque en imágenes de objetos 3D

Torroba, Patricia Laura January 2004 (has links)
En los sistemas formadores de imágenes hay muchas causas de la degradación de la misma. Los tipos de degradación que afectan sólo el nivel de gris del pixel, sin introducir un borroneo espacial son denominados degradaciones puntuales. Otros tipos, los cuales introducen borroneo, son llamados degradaciones espaciales. Existen además otras clases, relacionadas con efectos temporales y cromáticos. Estas degradaciones aparecen en una gran variedad de aplicaciones tales como en el reconocimiento astronómico, donde las imágenes obtenidas están deterioradas por turbulencia atmosférica, en imágenes tomadas con microscopios electrónicos, debido al tipo de muestras utilizadas , aberraciones del sistema óptico y el movimiento entre la cámara y el objeto. Otro ejemplo son las imágenes radiográficas médicas que presentan baja resolución y contraste, debido a los sistemas formadores de imágenes que utilizan rayos-x. En este trabajo se propone estudiar dos características ligadas a la formación de imágenes, el ruido como ejemplo de degradaciones puntuales y el desenfoque en escenas de objetos de 3D como ejemplo de degradaciones espaciales y cómo corregirlos.
6

Diseño de decodificadores de altas prestaciones para código LDPC

Angarita Preciado, Fabián Enrique 02 September 2013 (has links)
En esta tesis se han investigado los algoritmos de decodificación para códigos de comprobación de paridad de baja densidad (LDPC) y las arquitecturas para la implementación hardware de éstos. El trabajo realizado se centra en los algoritmos del tipo de intercambio de mensajes para códigos estructurados los cuales se incluyen en varios estándares de comunicaciones. Inicialmente se han evaluado las prestaciones de los algoritmos existentes Sum-product, Min-Sum y las principales variantes de este último (Min-Sum con escalado y Min-Sum con offset). Además, se ha realizado un análisis de precisión finita utilizando los códigos LDPC de los estándares IEEE 802.3an, IEEE 802.11n e IEEE 802.16e. Posteriormente se han propuesto dos algoritmos basados en el algoritmo Min-Sum, denominados Min-Sum entero y Min-Sum modificado con corrección. La complejidad de éstos es menor que las de los algoritmos estudiados anteriormente y además permiten una implementación hardware eficiente. Por otra parte, se han estudiado diferentes métodos de actualización de los algoritmos de decodificación: por inundación, por capas horizontales (layered) y por capas verticales (shuffled), y se ha propuesto un nuevo método por capas verticales entrelazadas (x-shuffled) que consigue mejorar la tasa de decodificación. Tras el estudio algorítmico, se han realizado implementaciones hardwar} con diferentes arquitecturas para los algoritmos y métodos de actualización evaluados y propuestos. En la mayoría de algoritmos implementados se requiere el cálculo de los dos primeros mínimos, por lo que inicialmente se realiza un estudio de las arquitecturas hardware para realizar este cálculo y se ha propuesto una nueva arquitectura de menor complejidad. En segundo lugar se ha realizado una comparación de las prestaciones hardware de los diferentes algoritmos con las arquitecturas de referencia: completamente paralela y parcialmente paralela basada en memorias. También se han propuesto dos arquitecturas enfocadas a la alta velocidad, la cuales se implementan con el algoritmo Sum-Product. La primera es una modificación de la arquitectura Sliced Message-Passing que consigue una reducción en el área de la implementación, y la segunda, es una arquitectura específica para el método de actualización propuesto x-shuffled que alcanza tasas de decodificación muy altas. Finalmente, se han implementado los algoritmos propuestos con la arquitectura layered obteniendo implementaciones hardware eficientes con baja área y muy alta tasa de decodificación. Estas últimas consiguen un ratio entre tasa de decodificación y área mejor que las implementaciones existentes en la literatura. Por último, se ha evaluado el comportamiento de los algoritmos de decodificación estudiados en la zona de baja tasa de error, donde las prestaciones se suelen degradar debido a la aparición de un suelo de error. Para ello se ha implementado un simulador hardware usando dispositivos FPGA. La tasa de datos alcanzada con el simulador hardware diseñado es superior a la de otros simuladores documentados en la literatura. En la zona de baja tasa de error el algoritmo propuesto Min-Sum modificado con corrección presenta un mejor comportamiento que el resto de algoritmos evaluados, consiguiendo bajar el suelo de error varios órdenes de magnitud. / Angarita Preciado, FE. (2013). Diseño de decodificadores de altas prestaciones para código LDPC [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31646 / TESIS
7

Efecto acoplado de la presión de confinamiento y el corte estático inicial en la resistencia ciclíca de arena de relaves

Vargas García, Marcelo Alejandro January 2015 (has links)
Magíster en Ciencias de la Ingeniería, Mención Ingeniería Geotécnica / Los altos niveles de producción de cobre en la actualidad, junto con la baja ley de los yacimientos, hacen que se generen cantidades importantes de desechos llamados relaves. El almacenamiento de grandes volúmenes de relaves obliga al estudio del comportamiento tanto estático como sísmico de este material, de manera de asegurar la estabilidad mecánica de las presas de relaves. En este contexto es de gran importancia estudiar la resistencia de los relaves frente al fenómeno de licuación, materia del presente trabajo. Diversos estudios han mostrado que el nivel de presión de confinamiento afecta la resistencia cíclica de arenas, proponiéndose el factor de corrección Kσ. Análogamente, se ha observado que el nivel de corte estático inicial también afecta la resistencia cíclica, a raíz de lo cual se ha introducido el factor de corrección Kα. Sin embargo, el efecto acoplado de ambas variables, que corresponde a la condición real de terreno, no ha sido debidamente investigado. Consecuentemente, mediante ensayos triaxiales cíclicos no drenados consolidados tanto isotrópicamente como anisotrópicamente, se ha estudiado el efecto conjunto de ambas variables en la resistencia cíclica de arena de relaves, para distintos niveles de densidad relativa inicial. Los resultados obtenidos del efecto acoplado de la presión de confinamiento y el corte estático en la resistencia cíclica de arena de relaves, se han resumido a través del parámetro Kσα. Este factor se presenta gráficamente con la intención de advertir donde la combinación de presión de confinamiento y corte estático inicial (en términos del parámetro α) tiene efectos positivos o negativos en la resistencia cíclica de arena de relaves. El análisis de datos indica una sobrestimación de la resistencia al usar el producto de los factores por separado (Kσ x Kα), en comparación al uso del factor acoplado Kσα, para cada una de las densidades estudiadas. Los resultados experimentales muestran que existe en definitiva dos modos de desarrollo de deformaciones. Por un lado, está el caso donde la probeta claramente exhibe deformaciones axiales cíclicas, identificándose la falla por un nivel de deformación entre los peaks de compresión y extensión. Por otro lado, está la condición de una reducida deformación cíclica, pero un marcado desarrollo de deformación acumulada hacia la zona en compresión, identificándose la falla por el nivel de deformaciones máximo acumulado. Cada uno de estos modos depende de la combinación de densidad relativa, presión confinante, corte estático y nivel de solicitación cíclica.
8

La percepción del alumnado de ELE en Suecia sobre la corrección de los errores orales : Un estudio comparativo entre alumnado y profesorado / The perception of SSL students in Sweden on the correction of oral errors : A comparative study between students and teachers

Nilsson, Molly January 2021 (has links)
Dentro del marco teórico didáctico existen varias investigaciones sobre cómo se debe corregir al alumnado que estudia lenguas extranjeras, pero la mayoría de las investigaciones faltan la perspectiva del alumnado, es decir, el recipiente de la corrección. Por eso, el propósito de la presente investigación ha sido investigar las opiniones de aprendices en las clases de ELE en Suecia en cuanto a la corrección de su producción oral. La investigación se ha desempeñado por un método cuantitativo, por dos encuestas, dirigidas al alumnado del bachillerato al igual que al profesorado de estas clases. Las encuestas contienen las mismas preguntas, pero el enfoque de ambos está en el punto de vista de los aprendices, con el fin de poder comparar las respuestas. Las preguntas tratan de cómo evalúan su propio español, qué método de corrección prefieren, por qué prefieren un método a otro y si sus profesores usan su método preferido. Además, se ha usado Fisher’s exact test con el objetivo de ver si existe alguna correlación entre las variables motivación o competencia y la preferencia por alguna metodología de corrección. El resultado ha revelado que el método más preferido del alumnado es “Las claves metalingüísticas”, es decir, un método en el cual el profesorado da claves metalingüísticas a los estudiantes, para ayudarles a corregirse (Loewen,2007) y la razón más importante por la cual prefiere un método a otro es que quiere saber por qué lo que ha dicho está malo, no sólo que está malo. Las opiniones del alumnado y del profesorado no coinciden en cuanto a qué método prefiere el alumnado, no obstante, sí coinciden en la razón por la cual se prefiere una metodología de corrección a otra. Además, ambos el alumnadoy el profesorado piensan que el profesorado usa el método preferido del alumnado casi siempre. La prueba Fisher’s exact test ha develado que no existe ninguna correlación estadísticamente significativa entre las variables motivación o competencia y la preferencia por algún método de corrección. / Within the didactic theoretical framework there are several investigations on how students who study foreign languages should be corrected, but most investigations lack the perspective of the students, in other words, the recipient of the correction. Therefore, the aim of this study has been investigating the opinions of students regarding the correction of oral errors that the students produce in the classes of SSL (Spanish as a foreign language) in Sweden. The study has been carried out through a quantitative method, through two surveys, addressed to students in high school as well as the teachers of these classes. The surveys contain the same questions, however, the focus of both is on the point of view of the students, in order to be able to compare the answers.The questions involve how the students evaluate their own Spanish, which correction method they prefer, why they prefer a method over another and if their teachers use their preferred method. Furthermore, Fisher's exact test has been used to see if there exists any correlation between the variables motivation or competence and the preference for any of the correction methods. The result has revealed that the most preferred method is “Las claves metalingüísticas”, a method in which teachers give metalinguistic clues to students, to help them correct themselves (Loewen, 2007) and that the most important reason regarding why the students prefer a method is that they want to know why what they have said is incorrect, not only that it is incorrect. The opinions of the students and the teachers do not coincide regarding the method preferred by the students, however, they do regarding the reason why they prefer a method over another. Furthermore, both students and teachers think that the teachers use the student´s preferred method almost always. Fisher’s exact test has revealed that there does not exist any correlation between the variables motivation or competence and the preference for any of the correction methods.
9

Architectures for soft-decision decoding of non-binary codes

García Herrero, Francisco Miguel 19 November 2013 (has links)
En esta tesis se estudia el dise¿no de decodificadores no-binarios para la correcci'on de errores en sistemas de comunicaci'on modernos de alta velocidad. El objetivo es proponer soluciones de baja complejidad para los algoritmos de decodificaci'on basados en los c'odigos de comprobaci'on de paridad de baja densidad no-binarios (NB-LDPC) y en los c'odigos Reed-Solomon, con la finalidad de implementar arquitecturas hardware eficientes. En la primera parte de la tesis se analizan los cuellos de botella existentes en los algoritmos y en las arquitecturas de decodificadores NB-LDPC y se proponen soluciones de baja complejidad y de alta velocidad basadas en el volteo de s'¿mbolos. En primer lugar, se estudian las soluciones basadas en actualizaci'on por inundaci 'on con el objetivo de obtener la mayor velocidad posible sin tener en cuenta la ganancia de codificaci'on. Se proponen dos decodificadores diferentes basados en clipping y t'ecnicas de bloqueo, sin embargo, la frecuencia m'axima est'a limitada debido a un exceso de cableado. Por este motivo, se exploran algunos m'etodos para reducir los problemas de rutado en c'odigos NB-LDPC. Como soluci'on se propone una arquitectura basada en difusi'on parcial para algoritmos de volteo de s'¿mbolos que mitiga la congesti'on por rutado. Como las soluciones de actualizaci 'on por inundaci'on de mayor velocidad son sub-'optimas desde el punto de vista de capacidad de correci'on, decidimos dise¿nar soluciones para la actualizaci'on serie, con el objetivo de alcanzar una mayor velocidad manteniendo la ganancia de codificaci'on de los algoritmos originales de volteo de s'¿mbolo. Se presentan dos algoritmos y arquitecturas de actualizaci'on serie, reduciendo el 'area y aumentando de la velocidad m'axima alcanzable. Por 'ultimo, se generalizan los algoritmos de volteo de s'¿mbolo y se muestra como algunos casos particulares puede lograr una ganancia de codificaci'on cercana a los algoritmos Min-sum y Min-max con una menor complejidad. Tambi'en se propone una arquitectura eficiente, que muestra que el 'area se reduce a la mitad en comparaci'on con una soluci'on de mapeo directo. En la segunda parte de la tesis, se comparan algoritmos de decodificaci'on Reed- Solomon basados en decisi'on blanda, concluyendo que el algoritmo de baja complejidad Chase (LCC) es la soluci'on m'as eficiente si la alta velocidad es el objetivo principal. Sin embargo, los esquemas LCC se basan en la interpolaci'on, que introduce algunas limitaciones hardware debido a su complejidad. Con el fin de reducir la complejidad sin modificar la capacidad de correcci'on, se propone un esquema de decisi'on blanda para LCC basado en algoritmos de decisi'on dura. Por 'ultimo se dise¿na una arquitectura eficiente para este nuevo esquema / García Herrero, FM. (2013). Architectures for soft-decision decoding of non-binary codes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/33753 / TESIS / Premios Extraordinarios de tesis doctorales
10

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 22 September 2021 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details the devolopment of a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. This research presents the study of the min-sum algorithm and the design of the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it focused exclusively in the prototyping of the inner LDPC decoder and targets FPGA as platform. A variety of design strategies are applied in the design of the core, including the optimal selection of the architecture and the schedule policy, the design of the control unit as a Algorithmic State Machine (ASM) and the inclusion of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. The selected features for this work are code length of 64800 bits and code rate equal to 1/2. The selected architecture is partially parallel with flooding schedule and operates over binary symbols (Galois field GF(2)). For testing, it assumes a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions. The design has been validated using different verification methodologies according to complexity and predictability of each part or the whole system. Obtained results show the decoder, when configured for a maximum of 10 iterations, has a BER performance of 10-3 at a SNR of 2 dB, having an advantage of 1 dB respect to previous published Works [1]. It uses 60363 slice LUT and 23552 slice registers when synthesized in the Virtex 7 xc7vx550t FPGA from Xilinx, a reduction of 10% in resource usage from [1]. It achieves a maximum frequency operation of 194 Mhz and a throughput of 142.99 Mbps at worst case. The top energy per bit rate is 18.344 nJ/bit.

Page generated in 0.0481 seconds