21 |
Software de visualización y validación para datos georreferenciados de pertenencias minerasRomo Jorquera, Jorge Enrique January 2012 (has links)
Ingeniero Civil en Computación / Una pertenencia minera es un derecho sobre un terreno para la explotación o exploración de minerales. En Chile existen miles de solicitudes de pertenencias mineras, que se publican semanalmente en el Diario Oficial. El Sernageomin ofrece un servicio web que consiste en un mapa y un buscador de solicitudes de pertenencias mineras en Chile. La empresa Punto Medio, donde se realizó esta memoria, también ofrece el servicio de un buscador, el cual es actualizado más frecuentemente, y permite consultar más información que el del Sernageomin. No obstante, no provee un mapa de las solicitudes de pertenencia.\\
El objetivo de esta memoria es incorporar un sistema de visualización de las solicitudes de pertenencia mineras a los servicios ya ofrecidos por Punto Medio, satisfaciendo demandas de los diversos trabajadores del área que el servicio entregado por el Sernageomin no es capaz de cumplir. Además, se desea mejorar la eficiencia y la extensibilidad de los módulos que permiten la actualización, consulta y validación de datos del sistema actual.
Durante la memoria se elaboró una aplicación web que muestra las solicitudes de pertenencias en un mapa, la cual está integrada a un buscador, donde se realizan las consultas sobre las solicitudes de las pertenencias que se quieren visualizar, e incluye criterios geométricos para realizar consultas. También se mejoró el sistema de actualización de datos, añadiendo criterios relativos a la validación de los polígonos de las solicitudes de pertenencia, lo que permite reducir la revisión manual de los datos para encontrar errores.
Con estos resultados se mejoró la eficiencia de la actualización de los datos y se obtuvo un sistema de visualización de los mismos, que es extensible y eficiente. Las mejoras al sistema en general, contribuyen a facilitar la tarea en el futuro de añadir nuevos módulos, o funcionalidades a módulos ya existentes, que ocupen parte del desarrollo realizado en esta memoria. Actualmente el sistema se encuentra en uso y otorga las funcionalidades esperadas para cumplir con el objetivo de dar un servicio de consulta y visualización de datos mucho más completo que el servicio que provee Sernageomin a los usuarios de las distintas áreas de la minería.
|
22 |
Evaluación y aplicación de estrategias para control de errores en canales satelitales mediante codificación algebraicaTroncoso Hernández, Felipe Iván January 2012 (has links)
Ingeniero Civil Electricista / En el contexto de las Ciencias Aeroespaciales, surge la necesidad de disponer al alcance de universidades y otros organismos la posibilidad de realizar investigación en el área sin requerir inversiones costosas y planificaciones de largo plazo. Esta idea se concreta actualmente en el lanzamiento de pequeños satélites agrupados bajo el estándar CubeSat. El proyecto SUCHAI, del
Departamento de Ingeniería Eléctrica, busca poner en órbita el primer satélite de este tipo desarrollado por una Universidad chilena.
Las severas limitaciones de peso, tamaño y recursos de estos satélites impone varios desafíos para mantenerlos funcionales en su órbita. La comunicación con la estación terrestre, desde donde se envían y reciben señales, es crítica para dicho fin. Varios elementos afectan el enlace, como son la alta velocidad de traslación del satélite y el ruido introducido por fenómenos climáticos y la ionosfera. Esto lleva a la necesidad de evaluar mecanismos para minimizar la corrupción en la información transmitida, entre los cuales son de amplia aplicación los esquemas de codificación.
En el contexto del proyecto SUCHAI, este trabajo tiene por objetivos evaluar estrategias de control de errores adecuadas para el entorno descrito, acotando el estudio a los esquemas de codificación algebraica, e implementar aquella que se ajuste mejor a los requisitos impuestos.
La evaluación realizada abarca la simulación de algunas estrategias de codificación, bajo esquemas de modulación en frecuencia y en fase binarios cuyos resultados indican que el código convolucional reduce significativamente los errores en la transmisión. Esto motiva la implementación de un esquema convolucional en un módulo FPGA Spartan-3E de Xilinx, la que se realizó parcialmente en el software ISE.
Con los logros alcanzados, se presentan desafíos de implementación completa y eficiente del código convolucional, realización de pruebas bajo condiciones más realistas a las simuladas, o la evaluación de otros esquemas de codificación y modulación bajo modelos de canal más representativos.
|
23 |
Presentación de Causas para las Complicaciones en el Tratamiento de las FracturasSaavedra Escajadillo, Richard Orlando January 2016 (has links)
Realiza una revisión teórica de los factores que condicionan la hiatrogenia en otros países. Presenta la casuística de 89 pacientes de ambos sexos y todas las edades, con complicaciones en su evolución, operados en el Servicio de Ortopedia y Traumatología del Hospital II - Pasco - EsSalud y plantea recomendaciones para evitarlas. Por último se realiza la presentación documentada de una muestra de los casos y su resolución. / Trabajo académico
|
24 |
Errores de medicación en adultos mayores hospitalizados en el Servicio de Medicina Interna de un hospital de alta complejidadOrtega Albornoz, Yanira Andrea January 2016 (has links)
Internado en Farmacia Clínica y Atención Farmacéutica para obtener el Título Profesional de
Químico Farmacéutico / Antecedentes: Los adultos mayores (AM) presentan mayor prevalencia de
enfermedades crónicas, situación que lleva a que sean evaluados por diferentes
especialistas, quedando expuestos a la polifarmacia, aumentando el riesgo de
sufrir errores de medicación (EM).
Objetivo: Determinar incidencia de errores de medicación en adultos mayores
hospitalizados en el Servicio de Medicina Interna (SMI) del Hospital Clínico de
la Universidad de Chile (HCUCH).
Metodología: Estudio prospectivo observacional. Los participantes fueron
pacientes hospitalizados de 60 o más años, hospitalizados en el SMI por más
de 48 horas. Los criterios de exclusión fueron pacientes sin autonomía cognitiva
en que no fue posible contactar cuidador. La detección de EM se basó en el
sistema de utilización de medicamentos (prescripción, transcripción,
administración). Los EM detectados fueron categorizados según tipo y subtipo,
además de establecer la severidad. Para este propósito, se utilizó la
clasificación del National Coordiinating Council for Medication Error Reporting
and Prevention.
Resultados: Fueron seleccionados 98 pacientes, los que en su mayoría eran
mujeres (58,2%), con un promedio de edad de 72,8 ± 8,4 años .En 64 (65,3%)
de 98 pacientes evaluados y 961 medicamentos evaluados se encontraron 228
EM. El 24% del total de medicamentos estuvo involucrado en EM. La mitad de los EM ocurrieron durante la administración, principalmente por la omisión de dosis. Los medicamentos del tracto alimentario y metabolismo fueron el grupo con mayor ocurrencia de EM.
Conclusión: Dos de cada tres pacientes evaluados presentó al menos un EM, principalmente en la etapa de administración. Estrategias para disminuir los EM en esta población pueden efectuarse utilizando la información encontrada en el presente trabajo / Background: Older people (OP) have more prevalence of chronic diseases, for which they are attended by different specialist, leaving them more susceptible to polypharmacy, situation that increases the risk of medication errors (ME).
Objective: to determine the incidence of ME in elderly patients at the internal medicine service (IMS) at Hospital Clínico de la Universidad de Chile.
Methods: An observational prospective study. The participants were hospitalized patients over sixty years old, hospitalized at the IMS longer than 48 hours. The exclusion criteria were patients without cognitive autonomy and uncontactable caregiver. The detection of ME was performed at the drug utilization system (prescription, transcription, administration). The detected ME were categorized by type and subtype, and also severity was established. For this purpose, the classification of the National Coordinating Council for Medication Error Reporting and Prevention was used.
Results: A total of 98 patients met the selection criteria, with an average of 72,8 ± 8,4 years old and with more presence of women (58,2%). In 64 (65,3%) of the 98 patients evaluated, 228 ME cases were found in 961 drugs reviewed. 24% of the total of drugs were involved in ME. Half of the ME took place during the administration, mostly because of dose omission. The drugs for alimentary tract and metabolism were the group with higher ME occurrence. Conclusion: Two thirds of the evaluated patients had at least one ME, mostly during administration fase. Strategies to reduce ME in this population could be done using the information presented in this work
|
25 |
El error léxico en la interlengua de lenguas afines: italiano y españolBarbasán Ortuño, Inmaculada Pilar 29 April 2016 (has links)
[EN] Lexicon is essential in second language learning. Despite the importance for learners to master vocabulary, there is little research on the subject largely due to the difficulty and complexity of its systemization. This tool, however, would be very useful for teaching purposes. Classification and evaluation of lexical errors provide us with the key to identify problems faced by L2 learners.
This research focuses on the analysis of lexical errors in the interlanguage of related languages. In particular, it addresses the use of lexicon in the written language of Italian students learning Spanish and Spanish speakers learning Italian.
The influence of Italian and Spanish lexicon in the creation and development of learner interlanguage and the degree of interference that the native language has are also highlighted. Likewise, the most common types of errors are studied and there is a contemplation of the existence of a balance between the types of errors made by Spanish and Italian speakers.
In essence, this thesis aims to lay the groundwork for a teaching approach based on specific knowledge of the difficulties and skills of Italian-speaking learners and Spanish-speaking learners. This approach will enable us to create suitable materials, advise textbook authors and work with effective tools for vocabulary acquisition. / [ES] El léxico es un elemento central en el aprendizaje de segundas lenguas. A pesar de la importancia que reviste para los aprendientes dominar el vocabulario, el campo de los estudios léxicos refleja una escasez de trabajos debido en gran medida a la dificultad y complejidad de su sistematización. Una herramienta que, sin embargo, nos resultaría muy provechosa en su aplicación didáctica. La categorización y valoración de errores léxicos nos proporciona la clave para identificar los problemas del aprendiente cuando se adentra en el estudio de una L2.
Esta investigación se centra en el análisis de los errores léxicos en la interlengua de lenguas afines. En concreto, fija como objeto de estudio el léxico en la lengua escrita de los estudiantes italianos que aprenden español y de los hispanohablantes que aprenden italiano.
Se estudia la influencia del léxico italiano y español en la creación y desarrollo de la interlengua de los discentes y se señala el grado de interferencia de la lengua materna en el aprendizaje de estas lenguas afines. Asimismo, se investiga qué tipo de errores se cometen con más frecuencia y si existe un equilibrio entre las clases de errores cometidos por hispanófonos e italianos.
En esencia, esta tesis pretende sentar las bases para un posterior acercamiento didáctico partiendo del conocimiento concreto de las dificultades y destrezas de los aprendientes italófonos e hispanohablantes. Una aproximación que, en definitiva, nos permita elaborar materiales adecuados o asesorar a los autores de manuales y trabajar con instrumentos eficaces para el asentamiento del nuevo léxico. / [CA] El lèxic és un element central a l'aprenentatge de segones llengües. Malgrat la importància que revesteix per als aprenents dominar el vocabulari, el camp dels estudis lèxics reflecteix una escasessa de treballs degut en gran mesura a la dificultat i complexitat de la seua sistematització. Una eina que, tanmateix, ens resultaria força profitosa en la seua aplicació didàctica. La categorització i valoració d'errors lèxics ens proporciona la clau per a identificar els problemes de l'aprenent quan s'endinsa en l'estudi d'una L2.
Aquesta investigació es centra en l'anàlisi dels errors lèxics en la interllengua de llengües afins. En concret, fixa como a objecte d'estudi el lèxic en la llengua escrita dels estudiants italians que aprenden espanyol i dels hispanoparlants que aprenen italià.
S'estudia la influencia del lèxic italià i espanyol en la creació i desenvolupament de la interllengua dels discents i s'assenyala el grau d'interferència de la llengua materna en l'aprenentatge d'aquestes llengües afins. De la mateixa manera, s'investiga quin tipus d'errors es cometen amb més freqüència i si existeix un equilibri entre les classes d'errors comesos per hispanòfons i italians.
En essència, aquesta tesi pretén establir els fonaments per a un posterior apropament didàctic partint del coneixement concret de les dificultats i destreses dels aprenents italòfons i hispanoparlants. Una aproximació que, en definitiva, ens permeta elaborar materials adients o assessorar els autors de manuals i treballar amb instruments eficaços per a l'assentament del nou lèxic. / Barbasán Ortuño, IP. (2016). El error léxico en la interlengua de lenguas afines: italiano y español [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63145
|
26 |
VLSI algorithms and architectures for non-binary-LDPC decodingLacruz Jucht, Jesús Omar 04 November 2016 (has links)
Tesis por compendio / [EN] This thesis studies the design of low-complexity soft-decision Non-Binary Low-Density Parity-Check (NB-LDPC) decoding algorithms and their corresponding hardware architectures suitable for decoding high-rate codes at high throughput (hundreds of Mbps and Gbps).
In the first part of the thesis the main aspects concerning to the NB-LDPC codes are analyzed, including a study of the main bottlenecks of conventional softdecision decoding algorithms (Q-ary Sum of Products (QSPA), Extended Min-Sum (EMS), Min-Max and Trellis-Extended Min-Sum (T-EMS)) and their corresponding hardware architectures. Despite the limitations of T-EMS algorithm (high complexity in the Check Node (CN) processor, wiring congestion due to the high number of exchanged messages between processors and the inability to implement decoders over high-order Galois fields due to the high decoder complexity),
it was selected as starting point for this thesis due to its capability to reach high-throughput. Taking into account the identified limitations of the T-EMS algorithm, the second part of the thesis includes six papers with the results of the research made in order to mitigate the T-EMS disadvantages, offering solutions that reduce the area, the latency and increase the throughput compared to previous proposals from literature without sacrificing coding gain. Specifically, five low-complexity decoding algorithms are proposed, which introduce simplifications in different parts of the decoding process. Besides, five complete decoder architectures are designed and implemented on a 90nm Complementary Metal-Oxide-Semiconductor (CMOS) technology. The results show an achievement in throughput higher than 1Gbps and an area less than 10 mm2. The increase in throughput is 120% and the reduction in area is 53% compared to previous implementations of T-EMS,
for the (837,726) NB-LDPC code over GF(32). The proposed decoders reduce the CN area, latency, wiring between CN and Variable Node (VN) processor and the number of storage elements required in the decoder. Considering that these proposals improve both area and speed, the efficiency parameter (Mbps / Million NAND gates) is increased in almost five times compared to other proposals from literature.
The improvements in terms of area allow us to implement NB-LDPC decoders over high-order fields which had not been possible until now due to the highcomplexity
of decoders previously proposed in literature. Therefore, we present the first post-place and route report for high-rate codes over high-order fields higher than Galois Field (GF)(32). For example, for the (1536,1344) NB-LDPC code over GF(64) the throughput is 1259Mbps occupying an area of 28.90 mm2. On the other hand, a decoder architecture is implemented on a Field Programmable Gate Array (FPGA) device achieving 630 Mbps for the high-rate (2304,2048) NB-LDPC code over GF(16). To the best knowledge of the author, these results constitute the highest ones presented in literature for similar codes and implemented on the same technologies. / [ES] En esta tesis se aborda el estudio del diseño de algoritmos de baja complejidad para la decodificación de códigos de comprobación de paridad de baja densidad no binarios (NB-LDPC) y sus correspondientes arquitecturas apropiadas para decodificar códigos de alta tasa a altas velocidades (cientos de Mbps y Gbps). En la primera parte de la tesis los principales aspectos concernientes a los códigos NB-LDPC son analizados, incluyendo un estudio de los principales cuellos de botella presentes en los algoritmos de decodificación convencionales basados en decisión blanda (QSPA, EMS, Min-Max y T-EMS) y sus correspondientes arquitecturas hardware. A pesar de las limitaciones del algoritmo T-EMS (alta complejidad en el procesador del nodo de chequeo de paridad (CN), congestión en el rutado debido al intercambio de mensajes entre procesadores y la incapacidad de implementar decodificadores para campos de Galois de orden elevado debido a la elevada complejidad), éste fue seleccionado como punto de partida para esta tesis debido a su capacidad para alcanzar altas velocidades.
Tomando en cuenta las limitaciones identificadas en el algoritmo T-EMS, la segunda parte de la tesis incluye seis artículos con los resultados de la investigación realizada con la finalidad de mitigar las desventajas del algoritmo T-EMS, ofreciendo soluciones que reducen el área, la latencia e incrementando la velocidad comparado con propuestas previas de la literatura sin sacrificar la ganancia de codificación. Especificamente, cinco algoritmos de decodificación de baja complejidad han sido propuestos, introduciendo simplificaciones en diferentes partes del proceso de decodificación. Además, arquitecturas completas de decodificadores han sido diseñadas e implementadas en una tecnologia CMOS de 90nm consiguiéndose una velocidad mayor a 1Gbps con un área menor a 10 mm2, aumentando la velocidad en 120% y reduciendo el área en 53% comparado con previas implementaciones del algoritmo T-EMS para el código (837,726) implementado sobre campo de Galois GF(32). Las arquitecturas propuestas reducen el área del CN, latencia, número de mensajes intercambiados entre el nodo de comprobación de paridad (CN) y el nodo variable (VN) y el número de elementos de almacenamiento en el decodificador. Considerando que estas propuestas mejoran tanto el área comola velocidad, el parámetro de eficiencia (Mbps / Millones de puertas NAND) se ha incrementado en casi cinco veces comparado con otras propuestas de la literatura.
Las mejoras en términos de área nos ha permitido implementar decodificadores NBLDPC sobre campos de Galois de orden elevado, lo cual no habia sido posible hasta ahora debido a la alta complejidad de los decodificadores anteriormente propuestos en la literatura. Por lo tanto, en esta tesis se presentan los primeros resultados incluyendo el emplazamiento y rutado para códigos de alta tasa sobre campos finitos de orden mayor a GF(32). Por ejemplo, para el código (1536,1344) sobre GF(64) la velocidad es 1259 Mbps ocupando un área de 28.90 mm2. Por otro lado, una arquitectura de decodificador ha sido implementada en un dispositivo FPGA consiguiendo 660 Mbps de velocidad para el código de alta tasa (2304,2048) sobre GF(16). Estos resultados constituyen, según el mejor conocimiento del autor, los mayores presentados en la literatura para códigos similares implementados para las mismas tecnologías. / [CA] En esta tesi s'aborda l'estudi del disseny d'algoritmes de baixa complexitat per a la descodificació de codis de comprovació de paritat de baixa densitat no binaris (NB-LDPC), i les seues corresponents arquitectures per a descodificar codis d'alta taxa a altes velocitats (centenars de Mbps i Gbps). En la primera part de la tesi els principals aspectes concernent als codis NBLDPC són analitzats, incloent un estudi dels principals colls de botella presents en els algoritmes de descodificació convencionals basats en decisió blana (QSPA, EMS, Min-Max i T-EMS) i les seues corresponents arquitectures. A pesar de les limitacions de l'algoritme T-EMS (alta complexitat en el processador del node de revisió de paritat (CN), congestió en el rutat a causa de l'intercanvi de missatges entre processadors i la incapacitat d'implementar descodificadors per a camps de Galois d'orde elevat a causa de l'elevada complexitat), este va ser seleccionat com a punt de partida per a esta tesi degut a la seua capacitat per a aconseguir altes velocitats.
Tenint en compte les limitacions identificades en l'algoritme T-EMS, la segona part de la tesi inclou sis articles amb els resultats de la investigació realitzada amb la finalitat de mitigar els desavantatges de l'algoritme T-EMS, oferint solucions que redueixen l'àrea, la latència i incrementant la velocitat comparat amb propostes prèvies de la literatura sense sacrificar el guany de codificació. Específicament, s'han proposat cinc algoritmes de descodificació de baixa complexitat, introduint simplificacions en diferents parts del procés de descodificació. A més, s'han dissenyat arquitectures completes de descodificadors i s'han implementat en una tecnologia CMOS de 90nm aconseguint-se una velocitat major a 1Gbps amb una àrea menor a 10 mm2, augmentant la velocitat en 120% i reduint l'àrea en 53% comparat amb prèvies implementacions de l'algoritme T-EMS per al codi (837,726) implementat sobre camp de Galois GF(32). Les arquitectures proposades redueixen l'àrea del CN, la latència, el nombre de missatges intercanviats entre el node de comprovació de paritat (CN) i el node variable (VN) i el nombre d'elements d'emmagatzemament en el descodificador. Considerant que estes propostes milloren tant l'àrea com la velocitat, el paràmetre d'eficiència (Mbps / Milions deportes NAND) s'ha incrementat en quasi cinc vegades comparat amb altres propostes de la literatura.
Les millores en termes d'àrea ens ha permès implementar descodificadors NBLDPC sobre camps de Galois d'orde elevat, la qual cosa no havia sigut possible fins ara a causa de l'alta complexitat dels descodificadors anteriorment proposats en la literatura. Per tant, nosaltres presentem els primers reports després de l'emplaçament i rutat per a codis d'alta taxa sobre camps finits d'orde major a GF(32). Per exemple, per al codi (1536,1344) sobre GF(64) la velocitat és 1259 Mbps ocupant una àrea de 28.90 mm2. D'altra banda, una arquitectura de descodificador ha sigut implementada en un dispositiu FPGA aconseguint 660 Mbps de velocitat per al codi d'alta taxa (2304,2048) sobre GF(16). Estos resultats constitueixen, per al millor coneixement de l'autor, els millors presentats en la literatura per a codis semblants implementats per a les mateixes tecnologies. / Lacruz Jucht, JO. (2016). VLSI algorithms and architectures for non-binary-LDPC decoding [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/73266 / Compendio
|
27 |
¿Qué has aprendido hoy? : Una comparación entre los temas dados y los conocimientos adquiridos en clase de ELE del 1°, 3° y 4° nivel en un centro de educación secundaria postobligatoria en SueciaLindberg, Manuel January 2015 (has links)
Lately most investigations regarding Swedish students’ level in Spanish as a foreign language indicate that there is a notable gap in their linguistic knowledge. It is possible to give various explanations to this tendency, such as the capacity of the educators or the level of motivation the students have. These explications, however, does not explain the fact that this is a problem on a national level. In order to be part of the search to find a potential solution to this issue this investigation has been made with the intention of assessing whether the students truly learn what they are being taught, by means of a modified error analysis, in which there it has also been investigated what part of the Spanish language that seems to be the most problematic to learn for the students at a Swedish upper secondary school. Last but not least this study also attempts to look into the possible influences of the first language and the gender of the learners. The error analysis that has been used consists in a test that contains twelve sentences, of which six are incorrect. All the sentences were based on constituents of the Spanish language that had already been studied in class. The students who participated in this study, all of them at the first, third and fourth level in the curriculum established by Swedish National Agency for Education, where asked to identify erroneous sentences and correct them. In this paper it has been proved that the learners, in fact, have failed to learn a considerable part of what they have been taught. It has also been established that neither gender nor native language can be considered relevant factors in the students’ learning ability. As for the most difficult part in the Spanish language it has not been possible to identify a generalizable result, but a few errors that can be found in more than one of the investigated groups, and therefore point out vital problems in the acquisition-process, has been identified. In conclusion, this paper shows that the knowledge of the Swedish students need some improvement, especially when it comes to ensuring that the learners won’t keep making the same mistakes over and over again.
|
28 |
Errores del uso del español en estudiantes extranjeros: Creación de una taxonomía y su etiquetadoBelda Torrijos, Mónica 07 January 2016 (has links)
[EN] In recent decades there has been a growing interest in learning Spanish as a foreign language. The impact on the Spanish society of socioeconomic and cultural events (internationalization of the Spanish economy, opening of Cervantes Institutes, the EU Erasmus student mobility program, language tourism, and greater interest in Hispanic culture) has brought about new lines of research arising from the teaching of Spanish as a foreign language. The present research tries to solve the difficulties in learning Spanish and serve as a guide for teachers to diagnose, classify and resolve problems that are characteristic of Spanish language learners. Phonetic, morphological, lexical, grammatical and pragmatic aspects of their mother tongue often interfere and hinder their learning of the Spanish language.
This study has been based on the idea that, on the one hand, a new sociocultural phenomenon such as blogs and their emergence in social media can be applied to the second language classroom. On the other hand, Applied Linguistics (especially corpus linguistics with its empiricist approach) is suitable for observing the errors of students in an informal setting and a subjective form of discourse. The research reviews different theories of second language acquisition, contrastive analysis, error analysis and interlanguage. The learning process is described, individual factors (age, aptitude, attitude, intelligence and personality) are analyzed, external (input, output and formal instruction) and internal (related to the individual's knowledge of the world) factors that can influence learning are likewise analyzed.
The research is oriented at different stages to collect, analyze and provide results from student compositions written in blogs. We use the blog as a written genre as it is a transparent medium as well as being simultaneously a medium for writing and publishing whose discursive features result in linguistic characteristics which reflect the personal, informal and spontaneous nature of the genre. For these reasons, the blogosphere is a successful system to observe the mistakes that learners of Spanish may make.
In particular, the research aims to design a methodology based on the principles of corpus linguistics at different stages, from the collection of the corpus, tagging and annotation (identification and classification of errors) and the extraction of results.
The main result of the thesis has been the creation of a taxonomy and error tagging system subdivided into four major subsections: lexical, grammatical, discursive and graphical errors. A total number of 17,827 errors contained in 766 compositions is distributed among these four subsections. Both total numbers and frequency of errors as well as percentages of each type of error are presented. Examples of such errors have been extracted from the corpus of blogs. The proposed tagging system is extensive and reflects the diversity of the many mistakes made by language learners of Spanish. Each error is a step towards learning. / [ES] En las últimas décadas ha habido un creciente interés por el aprendizaje del español como lengua extranjera. El impacto en la sociedad española de acontecimientos socioeconómicos y socioculturales (internacionalización de la economía española, apertura de Institutos Cervantes, alumnos Erasmus, turismo lingüístico, y mayor interés por la cultura hispánica) ha propiciado nuevas líneas de investigación derivadas de la enseñanza del español como lengua extranjera. La investigación que presentamos trata de resolver las dificultades en el aprendizaje del español y servir como guía a los profesores para poder diagnosticar, clasificar y resolver los problemas característicos de los aprendices de español. Las particularidades fonéticas, morfológicas, léxicas, gramaticales y pragmáticas de su lengua materna interfieren y dificultan el proceso del aprendizaje del español.
Este estudio ha radicado en que nos encontramos por un lado ante un nuevo fenómeno aplicado a las segundas lenguas: el blog y su emergencia en los medios sociales. Por otro lado, la Lingüística Aplicada (en particular, la lingüística de corpus con su enfoque empirista) resulta adecuado para observar los errores de los estudiantes en un contexto informal y notablemente subjetivo. La investigación presenta diferentes teorías de la adquisición de segundas lenguas, se estudia el Análisis Contrastivo, el Análisis de Errores e Interlengua, se describe el proceso de aprendizaje, se analizan los factores individuales (edad, aptitud, actitud, inteligencia y personalidad), externos (el input, el output y la instrucción formal) e internos (relacionados con el conocimiento del mundo por parte del individuo) que pueden influir en el aprendizaje.
La investigación está orientada en sus diferentes fases a recopilar, analizar y proporcionar resultados a partir de las composiciones escritas en los blogs de los alumnos. Utilizamos el blog como género escrito por tratarse de un medio transparente y simultáneo de escritura y publicación cuyos rasgos discursivos se traducen en características lingüísticas que reflejan el carácter personal, informal y espontáneo de este género. Por estas razones, la blogosfera constituye un acertado sistema para observar los errores que cometen los aprendices de español.
En concreto, la investigación persigue el diseño de una metodología basada en los principios de la lingüística de corpus en sus diferentes etapas, desde la recopilación del corpus, su etiquetado (identificación y clasificación de los errores) y anotación hasta la extracción de los resultados.
El principal resultado de la tesis es la creación de una taxonomía y su etiquetado subdividido en cuatro grandes subapartados: errores léxicos, gramaticales, discursivos y gráficos. El total de errores recogidos en las 766 composiciones es de 17.827 repartidos entre los cuatro subapartados. Se presentan tanto los números de errores y su frecuencia como cifras absolutas y porcentajes de cada tipo de error. Se han extraído del corpus de blogs ejemplos de dichos errores. El etiquetado propuesto es extenso y reflejo de la diversidad de los numerosos posibles errores cometidos. El error es un paso hacia el aprendizaje. / [CA] En les últimes dècades hi ha hagut un interés creixent per l'aprenentatge de l'espanyol com a llengua estrangera. L'impacte en la societat espanyola d'esdeveniments socioeconòmics i socioculturals (internacionalització de l'economia espanyola, obertura d'Instituts Cervantes, alumnes Erasmus, turisme lingüístic i més interés per la cultura hispànica) han propiciat noves línies d'investigació derivades de l'ensenyament de l'espanyol com a llengua estrangera. La investigació que presentem tracta de resoldre les dificultats en l'aprenentatge de l'espanyol i servir com a guia als professors per poder diagnosticar, classificar i resoldre els problemes característics dels aprenents d'espanyol. Les particularitats lèxiques, fonètiques, morfològiques, pragmàtiques, etc., de la seua llengua materna interfereixen i dificulten l'aprenentatge de l'espanyol.
Per una banda, aquest estudi ha radicat que ens trobem davant un nou fenomen aplicat a les segones llengües: el blog i la seua emergència en els mitjans socials. D'altra banda, la Lingüística Aplicada (en particular, la lingüística de corpus amb el seu enfocament empirista) resulta adequada per observar els errors dels estudiants en un context informal i notablement subjectiu. La investigació presenta diferents teories de l'adquisició de segones llengües, atés que s'estudia l'Anàlisi contrastiva, l'Anàlisi d'Errors i interllengua, es descriu el procés d'aprenentatge, s'analitzen els factors individuals (edat, aptitud, actitud, intel·ligència i personalitat), externs (l'input, l'output i la instrucció formal) i interns (relacionats amb el coneixement del món per part de l'individu) que poden influir en l'aprenentatge.
La investigació està orientada en les seues diferents fases a arreplegar, analitzar i proporcionar resultats a partir de les composicions escrites en els blogs dels alumnes. Utilitzem el blog per tractar-se d'un mitjà transparent i simultani d'escriptura i publicació, els trets del qual es tradueixen en característiques tals com: caràcter personal, informalitat i espontaneïtat. Per aquestes raons, la blogosfera constitueix un encertat sistema per observar els errors que cometen els aprenents d'espanyol.
En concret, la investigació persegueix el disseny d'una metodologia basada en els principis de la lingüística de corpus en les seues diferents etapes, des de la recopilació del corpus, el seu etiquetatge (identificació i classificació dels errors) i anotació fins a l'extracció dels resultats.
El principal resultat de la tesi és la creació d'una taxonomia i el seu etiquetatge subdividit en quatre grans subapartats: errors lèxics, gramaticals, discursius i gràfics. El total d'errors recollits en les 766 composicions és de 17.827 repartits entre els quatre subapartats. Es presenten tant els números d'errors i la seua freqüència com xifres absolutes i percentatges de cada tipus d'error. S'han extret del corpus de blogs exemples d'aquests errors. L'etiquetatge proposat és extens i reflex de la diversitat dels nombrosos possibles errors comesos. L'error és un pas cap a l'aprenentatge. / Belda Torrijos, M. (2015). Errores del uso del español en estudiantes extranjeros: Creación de una taxonomía y su etiquetado [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59433 / Premios Extraordinarios de tesis doctorales
|
29 |
Medicamentos potencialmente inapropiados en pacientes geriátricos post alta : criterios beers versus stopp & startTuchie Fischer, Chessarina January 2014 (has links)
Título de Profesional Especialista en Farmacia Clínica y Atención Farmacéutica / Introducción: Los criterios de Beers y la herramienta de detección STOPP (Screening Tool of Older Persons’ Prescriptions) son los instrumentos más comúnmente utilizados para detectar la prescripción de medicamentos potencialmente inapropiados (PMPI) en adultos mayores (AM). No obstante no hay estudios chilenos que comparen su capacidad de detectar PMPI y sus consecuencias en pacientes post alta.
Objetivo: Comparar la capacidad de los Criterios de Beers (2003, 2012) versus STOPP & START(Screening Tool to Alert to Right Treatment) en la detección de consecuencias clínicas adversas en pacientes dados de alta de la Unidad Geriátrica de Agudos (UGA) del Hospital Clínico de la Universidad de Chile (HCUCh).
Método: Se realizó un estudio piloto de cohorte prospectivo en 42 AM dados de alta, donde finalizaron el estudio 36 pacientes. Una vez que el paciente era dado de alta y aquellos que cumplían con los criterios de selección incluyendo pacientes ≥ 65 años, de ambos sexos, con teléfono de contacto comprobado, que acepten participar en el estudio y firmen consentimiento informado. A los pacientes se les realizó seguimiento telefónico por 3 meses, para evaluar el uso de PMPI y la ocurrencia de consecuencias clínicas adversas.
Resultados: La frecuencia de las PMPI aumentó entre el alta y el tercer mes de seguimiento, desde 1,3% a un 3,4% según los criterios de Beers 2003, 11,0% a un 16,5% según los criterios de Beers 2012, 7,2% a un 10,8% según STOPP y 8,4% a un 11,4% según START. Los grupos terapéuticos más comúnmente identificados como PMPI fueron los antiarrítmicos según criterio de Beers 2003 (57,9%) y los ISRS (inhibidores selectivos de recaptación de serotonina) según criterio de Beers 2012 (29,4%) mientras que para STOPP los antiagregantes plaquetarios (27,7%) y para START las estatinas (40,0%).
En cuanto a la asociación entre las consecuencias clínicas evaluadas y los distintos criterios no resultó estadísticamente significativo.
Conclusión: Los resultados del presente estudio permiten concluir que la frecuencia de PMPI en una muestra de AM post alta, varió según el criterio que se utilice para definir PMPI y el tiempo transcurrido desde el alta y los 3 meses de seguimiento.
Para la detección de consecuencias clínicas adversas se hace necesario seguir realizando estudios con una muestra poblacional mayor / Introduction: The Beers criteria and the STOPP detection (Screening Tool of Older Persons’ Prescriptions) are the most common instruments to detect the prescription of potentially inappropriate medications (PIMs) on older adults (OA). However, there are no Chilean study that compares the detection capacity on PIMs and its consequences in post discharge patients. Objective: The purpose of the present study was to compare the detection capacity of the Beers Criteria (2003, 2012) versus STOPP & START (Screening Tool to Alert to Right Treatment) of adverse clinical consequences in post discharged patients at the Unidad Geriátrica de Agudos del Hospital Clínico de la Universidad de Chile.
Method: It was performed a pilot prospective cohort study on 42 post discharged OA, where 36 patients completed the study. Once the patients were discharged, and those who satisfied the selection criteria including patients’ ≥ 65 years old, of both sex, with proved telephone contact, who accepted to participate in the study and signed informed consent. Patients were subjected to a telephone follow-up for three months to assess the use of PIMs and the occurrence of adverse clinical outcomes.
Results: The frequency of PIMs increased within discharge and the third month of follow-up, from 1,3% to 3,4% according to the Beers Criteria 2003, from 11% to 16, 5% according to the Beers Criteria 2012, from 7,2% to 10,8% according to STOPP, and from 8,4% to 11,4% according to START. The therapeutic groups most commonly identified as PIMs were the anti-arrhythmics according to the Beers criteria 2003 (57,9%) and the selective serotonin reuptake inhibitors (SSRIs) according to the Beers criteria 2012 (29,4%), while for STOPP the platelet inhibitors (27,7%) and for START the statins (40%). The association between the evaluated clinical outcomes and the different criteria used didn’t result statistically significant.
Conclusion: The results of the present study concludes that the frequency of PIMs in a sample of OA “post discharge” varies depending on the criteria used and the elapsed time within discharge and the third month of follow-up. For the detection of adverse clinical consequences it becomes necessary to conduct further studies with a larger population sample
|
30 |
O juízo de identificação de demandas e de recursos no processo civil brasileiro: contribuição ao estudo dos atos postulatórios / Il giudizio didentificazione delle domande e delle impugnazioni nel processo civile brasiliano (contributo allo studio degli atti postulatori)Oliveira, Bruno Silveira de 18 November 2009 (has links)
O presente trabalho se ocupou de estudar o fenômeno da identificação dos atos postulatórios no processo civil brasileiro, procurando: (i) explicitar os critérios que regem esse juízo; (ii) delimitar seu objeto e (iii) demonstrar sua anterioridade lógica e influência sobre o juízo de admissibilidade. Para tanto, teve de conceituar ato postulatório e decompor este conceito em seus elementos essencias: conteúdo, forma, estrutura lógica e nomen juris. Somente essa decomposição, afinal, permite distinguir com clareza entre os vários elementos que integram uma postulação aquele que indica a espécie ou natureza jurídica a que ela pertence. Tentou-se demonstrar que é o conteúdo do ato (isto é, a pretensão nele contida) o único critério razoável e seguro para definir-lhe a espécie. É ele que revela o sentido da vontade do postulante em relação a determinado provimento judicial e, assim também, presumivelmente, em relação ao meio adequado e necessário para a obtenção deste. Identificados os atos postulatórios a partir de seu conteúdo, desqualificam-se inúmeras hipóteses de inadmissibilidade em que a jurisprudência, indevidamente, vislumbra inadequação da via eleita. Tais hipóteses são aquelas em que apesar de a pretensão deduzida se revelar adequada à tutela da posição processual do postulante o nomen juris dado ao ato sugere a escolha de outro meio, que não o necessário ao conhecimento e ao acolhimento do pedido. Em nenhum desses casos se há de falar em inadequação da via eleita, ocorrendo meros errores in nomine, circunstância completamente irrelevante para o fim de se avaliar a admissibilidade da postulação. / Il presente lavoro si é occupato di studiare il fenomeno dellidentitá degli atti postulatori nel processo civile brasiliano, cercando di: (i) esplicitare i criteri che reggono questo giudizio; (ii) delimitare il suo oggetto e (iii) dimostrare la sua anteriorità logica e influenza sul giudizio di ammissibilità. Pertanto, si é dovuto concettuare l´atto postulatorio e scomporre questo concetto nei suoi elementi essenziali: il contenuto, la forma, la struttura logica e il nomen juris. Soltanto com questa scomposizione, alla fine, ci permetterá di distinguere, con chiarezza, tra i vari elementi che integrano una postulazione, quello che indica la specie o la natura giuridica a cui appartiene. Si é cercato di dimostrare che cosa é il contenuto dell´atto (cioé, l´esigenza contenuta nello stesso atto), l´unico criterio ragionevole e sicuro per definire la propria specie. É lui che rivela il senso della volontá del postulante in relazione a un determinato provvedimento giudiziale e, cosi pure, si presume, in relazione al mezzo adeguato e necessario per ottenerlo. Identificati gli atti postulatori, a partire dal loro contenuto, si squalificano molte ipotesi di inammissibilitá in cui la giurisprudenza, indebitamente, intravvede inadeguazione della via scelta. Tali ipotesi sono quelle in cui nonostante la pretesa dedotta si riveli adeguata alla tutela della posizione processuale del postulante il nomen juris, dato allatto, suggerisce la scelta di um altro mezzo, che non quello necessario alla conoscenza e all´accoglimento della domanda. In nessuno di questi casi si deve dire in inadeguazione della via scelta, occorrendo meri errores in nomine, circostanze completamente irrilevanti al fine di valutare l´ammissibilitá della postulazione.
|
Page generated in 0.0405 seconds