• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 3
  • 2
  • 1
  • Tagged with
  • 25
  • 10
  • 10
  • 9
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Paralelización en CUDA y validación de corrección de traslapes en sistema de partículas coloidales

Carter Araya, Francisco Javier January 2016 (has links)
Ingeniero Civil en Computación / La simulación de cuerpos que interactúan entre sí por medio de fuerzas y la detección de colisiones entre cuerpos son problemas estudiados en distintas áreas, como astrofísica, fisicoquímica y videojuegos. Un campo en particular corresponde al estudio de los coloides, partículas microscópicas suspendidas sobre otra sustancia y que tienen aplicaciones en distintas industrias. El problema consiste en simular la evolución de un sistema con distintos tipos de partículas coloidales a través del tiempo, cumpliendo las propiedades de volumen excluido, movimiento aleatorio y condiciones de borde periódicas. Además, la interacción de largo alcance entre coloides presenta la particularidad de no cumplir con el principio de acción y reacción. Se desarrolló un algoritmo de simulación completamente paralelo en GPU, implementado en la plataforma CUDA y C++. La solución utiliza una triangulación de Delaunay en memoria de la tarjeta gráfica para conocer eficientemente la vecindad de cada partícula, lo que permite resolver traslapes entre partículas sin tener que evaluar todo el sistema. Se utilizó una implementación reciente del algoritmo de edge-flip para mantener la triangulación actualizada en cada paso de tiempo, extendiendo además el algoritmo para corregir los triángulos invertidos. Para el caso de fuerzas de corto alcance, además se desarrolló un algoritmo paralelo que construye y utiliza listas de Verlet para manejar las vecindades entre partículas de forma más eficiente que la implementación anterior. Los resultados obtenidos con la implementación paralela presentan una mejora de hasta dos órdenes de magnitud con respecto al tiempo de la solución secuencial existente. Por otro lado, el algoritmo para fuerza de corto alcance mejora de igual magnitud con respecto a la solución de largo alcance desarrollada. También se verificó que la corrección de traslapes con triangulación de Delaunay se hace de forma eficiente, y que esta estructura puede ser aplicada para otros problemas relacionados, como implementar el cálculo de fuerzas de corto alcance (y compararlo con la implementación ya existente) o realizar simulaciones aproximadas utilizando triangulaciones. / Financiado parcialmente por el Proyecto FONDECYT # 1140778
12

Software para el estudio empírico y reportes sobre el comportamiento de algoritmos de refinamiento para triangulaciones

Willembrinck Santander, Maximilian Ignacio January 2016 (has links)
Ingeniero Civil en Computación / El método de elementos finitos, que permite resolver numéricamente problemas modelados por ecuaciones diferenciales parciales para el análisis de complejos problemas físicos sobre geometrías complejas, es una de las más importantes aplicaciones del ámbito científico. En estos problemas las geometrías son modeladas utilizando mallas geométricas, cuya calidad determina la precisión de los cálculos y de los resultados obtenidos por el método. En una malla geométrica definida por una triangulación, se entiende por calidad que el ángulo mínimo de cada triángulo esté acotado inferiormente por un valor acorde a la necesidad del problema. Dado un conjunto de puntos para construir una triangulación, las triangulaciones de tipo «Delaunay» se caracterizan por maximizar el ángulo mínimo interior de sus triángulos, y en consecuencia producen la triangulación de mejor calidad basada en tales puntos. Sin embargo, en caso de requerirse una mejor calidad, ésta puede mejorarse insertando nuevos puntos estratégicamente. En este contexto, los algoritmos tipo «Delaunay» de refinamiento de mallas juegan un rol de importancia ya que proveen métodos de mejoramiento de la calidad de una triangulación por medio de la inserción de puntos adicionales. Cada inserción se realiza mediante un proceso que mantiene la propiedad de «Delaunay» de la malla, e incrementan su calidad. Los distintos de algoritmos refinamiento tipo «Delaunay» presentan diferencias en cuanto a su desempeño y a la malla resultante. Ciertos algoritmos incorporan una etapa de «preprocesamiento», en la cual se prepara la malla para prevenir complicaciones durante el desempeño del resto del algoritmo. Adicionalmente, algunos se benefician de procesar los triángulos siguiendo un orden en particular. Omitir el preprocesamiento u ordenamiento en estos casos, altera el resultado obtenido. Es posible estudiar el comportamiento de los algoritmos al establecer comparaciones entre sus condiciones de procesamiento respecto a los resultados obtenidos. Existen programas computacionales que permiten la aplicación de un algoritmo de refinamiento sobre una malla y que como resultado presentan la malla mejorada y estadísticas respecto al desempeño del algoritmo durante la ejecución. Estas aplicaciones requieren ser ejecutadas una vez por cada refinamiento. Para el caso en que el número de algoritmos y/o mallas es considerable, lo anterior impone una dificultad. En particular cuando se busca establecer comparaciones relativas al comportamiento de los algoritmos, esta situación obliga al investigador a realizar un trabajo posterior de manejo de datos y visualización para los resultados obtenidos. Así, el tiempo de trabajo y esfuerzos adicionales, en casos de grandes volúmenes de pruebas y datos, pueden llegar a ser imprácticos fácilmente. En esta memoria se pretende elaborar una herramienta inteligente para comparar algoritmos de refinamiento tipo «Delaunay», realizar «tuning» de algunos algoritmos, proponer nuevos, etcétera, considerando diversas condiciones de procesamiento. Adicionalmente, se espera que la herramienta permita definir esquemas de ejecuciones de procesamiento, a través de los cuales sea posible analizar y obtener grandes cantidades de resultados de manera simple y práctica. Finalmente, la aplicación deberá generar «Reportes de Visualización de Resultados» en archivos «html», que incluyen cada detalle de la configuración y de los resultados, además de visualizaciones de gráficos para las tablas comparativas producidas. En las siguientes páginas se aborda en detalle el proceso de diseño e implementación de esta herramienta, cuyo desarrollo se ejecuta a partir de la elaboración de una biblioteca basada en la aplicación «Compare2DMesh», que fue producida en trabajos anteriores, la cual permite la ejecución individual y obtención de resultados de un refinamiento tipo «Delaunay» sobre una malla. Esta nueva biblioteca, llamada «C2M», supera a la aplicación original en múltiples aspectos. Además, se construye una nueva aplicación «BatchRefinement» que utiliza «C2M», y que provee una interfaz gráfica a través de la cual se proveen funcionalidades que satisfacen todos los requerimientos relacionado al trabajo con volúmenes de experimentos y generación de reportes con los análisis de los resultados. Estos reportes son creados en unos pocos segundos, de manera automática y flexible, y presentan información que habría tomado horas procesar sin esta herramienta. Las pruebas realizadas confirman la versatilidad de la aplicación, e indican una mejoría respecto a «Compare2DMesh» en muchos aspectos. A lo largo de este documento, se discuten temas relevantes y consideraciones relacionadas con la implementación actual y, en determinados casos, con los trabajos anteriores.
13

Metodologías en ciencia política: el debate y los retos en la academia peruana

Maldonado, Arturo 25 September 2017 (has links)
Se ha escrito mucho acerca del debate entre las aproximaciones cualitativas y cuantitativas,  específicamente acerca  de  cuáles son  las tensiones que enfrenta un politólogo en su tarea por hacer inferencias válidas. Por un lado, los métodos cuantitativos están asociados con la estadística y las encuestas, con el manejo de muchos casos, con escalas de medición, pero con un conocimiento limitado de cada uno de los casos. Por otro lado, los métodos cualitativos están asociados con las narrativas y la hermenéutica, con el manejo de pocos casos y con una descripción densa de cada caso estudiado. En este artículo exploro en más detalle estos trade-off, mostrando cómo recientemente se ha dado paso a la llamada triangulación de métodos, tratando de superar estas tensiones y ganar lo mejor de ambas aproximaciones; la relación entre la metodología y  el  desarrollo  de  la  disciplina;  y,  finalmente,  llamo la  atención  hacia  una  nueva  tradición  no  tomada  en  cuenta  en la investigación politológica nacional, la experimental.
14

Reconocimiento de Bordes en Imágenes Aplicado a Anillos de Arboles

Aguilar Vergara, Pablo Agustín January 2008 (has links)
No description available.
15

A robust void-finding algorithm using computational geometry and parallelization techniques

Schkolnik Müller, Demian Aley January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Computación / El modelo cosmológico actual y más aceptado del universo se llama Lambda Cold Dark Matter. Este modelo nos presenta el modelo más simple que proporciona una explicación razonablemente buena de la evidencia observada hasta ahora. El modelo sugiere la existencia de estructuras a gran escala presentes en nuestro universo: Nodos, filamentos, paredes y vacíos. Los vacíos son de gran interés para los astrofísicos ya que su observación sirve como validación para el modelo. Los vacíos son usualmente definidos como regiones de baja densidad en el espacio, con sólo unas pocas galaxias dentro de ellas. En esta tesis, presentamos un estudio del estado actual de los algoritmos de búsqueda de vacíos. Mostramos las diferentes técnicas y enfoques, e intentamos deducir la complejidad algorítmica y el uso de memoria de cada void-finder presentado. Luego mostramos nuestro nuevo algoritmo de búsqueda de vacíos, llamado ORCA. Fue construido usando triangulaciones de Delaunay para encontrar a los vecinos más cercanos de cada punto. Utilizando esto, clasificamos los puntos en tres categorías: Centro, borde y outliers. Los outliers se eliminan como ruido. Clasificamos los triángulos de la triangulación en triángulos de vacíos y centrales. Esto se hace verificando un criterio de distancia, y si los triángulos contienen outliers. Este método nos permite crear un algoritmo de búsqueda de vacíos rápido y robusto. Adicionalmente, se presenta una versión paralela del algoritmo.
16

Integración de SLAM y planificación para el control de vehículos terrestres

Pinna Cortiñas, Juan Martín 09 April 2012 (has links)
En esta tesis, el algoritmo de SLAM localización y mapeo simultáneoha sido integrado con técnicas de planificación, con el fin de obtener trayectorias para vehículos terrestres en ambientes exteriores. El algoritmo de SLAM permite que el vehículo obtenga una representación del ambiente en un mapa variante en el tiempo al que podrían asociarse múltiples capas de datos, donde estas capas pueden incluir información diversa tal como: presencia de obstáculos, pendiente o altura del terreno, tipo de suelo, etc. Este mapa es dividido en regiones con alta correlación interna utilizando técnicas de geometría altamente eficientes desde el punto de vista computacional, con estructuras de datos y abstracciones que permitan manejar grandes cantidades de información. Estas regiones a su vez son divididas logrando una resolución en dos niveles de la información. Una que se denomina global y divide a todo el mapa conocido, y otra local que fracciona cada una de esas regiones. Con esta representación del ambiente, o en forma simultánea con la adquisición de ésta, es posible hallar trayectorias mediante técnicas de planificación. Con este fin, se definen criterios que permitan utilizar en la plani-ficación las múltiples capas de información permitiendo la utili-zación de cualquier algoritmo existente para este propósito. Esta aproximación permite lograr un algoritmo que es más eficiente que cualquier algoritmo de planificación existente para ambientes en exploración como se enfrentan en aplicio-nes de SLAM. Finalmente, como ejemplo de la estrategia propuesta, se generan trayectorias a partir de un modelo cinemático de un vehículo de cuatro ruedas y una estrategia de control. Se elige la velocidad lineal deseada del vehículo y se observa la limitación en el ángulo de giro del volante, con el objetivo de evaluar el desempeño del mismo mediante simulaciones numéricas y datos experimentales. / In this thesis, the SLAM algorithm Simultaneous Localization and Mapping has been integrated with planning strategies in order to achieve trajectories for land vehicles in outdoor environments. The SLAM algorithm allows the vehicle to obtain a representation of the environment in a time varying map. This time varying map could contain multiple layers of information, where these layers may include many types of data such as obstacles, slope or height of the terrain, etc. The map is divided into regions that have a high correlation using computational geometry techniques, which are highly efficient from the computational point of view. Towards this end, data structures and abstractions which can handle a significant amount of data are defined. Additionally, these regions are divided achieving two levels of inform: global and local. At global level, the whole known map is divided and at local level, each region is partitioned. Either once the repre-sentation of the environment is achieved or simultaneously with this process, it is possible to find trajectories using planning techniques. Criteria are defined to make use of the multiple layers of information at the planning stage and a particular type of planning algorithm is used, but there is a wide range of possible algorithms. This approach allows to achieve an algorithm that is more efficient than any existing planning algorithm for environments under exploration. Finally, to exemplify the proposed strategy, a kinetic model of a carlike vehicle is used with a control strategy to obtain trajectories. In these trajectories, the speed of the vehicle is chosen roughly constant and the limits of the steering angle are observed. The performance of the whole scheme is assessed through numerical simulations and experimental data.
17

Interpretación radical y escepticismo.

Coll Mármol, Jesús 17 July 2006 (has links)
En este trabajo se examina si de las consideraciones que Donald Davidson ha hecho del caso de la interpretación radical se sigue algo así como una refutación del escepticismo. Se argumenta que tal conclusión no se sigue de las posiciones acerca de la naturaleza del pensamiento y del lenguaje mantenidas por este filósofo americano, ni siquiera con la ayuda del así llamado argumento del intérprete omnisciente. También se rechaza la idea de que concebir su argumentación como un argumento trascendental modesto proporcione mejores resultados antiescépticos. Finalmente se defiende que el mejor modo de articular su posición es como un diagnóstico teórico del escepticismo al estilo del defendido por Michael Williams en su libro Unnatural Doubts. Desde este punto de vista lo que la filosofía davidsoniana haría sería reprochar al escéptico su adhesión al representacionismo y mostrar una alternativa al mismo que explique la posibilidad del pensamiento y del lenguaje. Concebida así la filosofía davidsoniana no constituiría una victoria definitiva ante el escepticismo, sino que más bien mostraría que su posición no es obligatoria y, al menos, garantizaría una presunción de inocencia para nuestras creencias ante el reto del escéptico global. / This work examines whether it follows a refutation of scepticism from Donald Davidson's work on radical interpretation. It is argued that such a conclusion does not follow from Donald Davidson's views on thought and language, not even with the help of the so called omniscient interpreter argument. This work also rejects that such views on language and thought lead to a better result against scepticism when interpreted as a modest transcendental argument. Finally it is claimed that the best way of articulating Davidson's antisceptical strategy is as a theoretical diagnosis of scepticism in a similar vein as Michael Williams has developed in his book Unnatural Doubts. From this point of view what Davidson's philosophy would do is, on the one hand, to reproach the sceptic his adherence to representationism and, on the other hand, to defend an alternative to this philosophical view that explains how thought and language are possible. Conceived of in this way, Davidson's philosophy would not constitute a definitive victory against scepticism. However it would show that scepticism is not compulsory and, at the very least, it would guarantee a presumption of innocence for our beliefs when they face the sceptical threat.
18

La construcción de identidades en una muestra de adolescentes de la Universidad Intercultural de Chiapas. Funciones de la identidad y mecanismos psicosociales implicados.

Esteban Guitart, Moisès, 1981- 19 September 2008 (has links)
En este estudio se explora la construcción narrativa de la identidad personal y social en adolescentes de la Universidad Intercultural de Chiapas. El objetivo general es mostrar e ilustrar un modelo teórico que intenta explicar dos funciones que tiene la identidad en la adolescencia, así como los mecanismos psicosociales que están implicados en su construcción. Se analiza información recogida a través de distintos instrumentos metodológicos (triangulación). Específicamente, usamos cuatro medidas: el cuestionario de funciones de la identidad y percepción entre grupos (FI-PG), la escala de identidad étnica multigrupo (EIEM), ambos instrumentos cuantitativos, entrevistas historia de vida (HV) y dibujos identitarios (DI), ambas cualitativas. En el estudio cuantitativo participan 331 adolescentes (144 mestizos y 187 indígenas). La media de edad es de 21.7 años (DS = 2.65; rango: 17-40). Los resultados sugieren una conclusión general. Hay diferencias identitarias entre los mestizos e indígenas de la Universidad Intercultural de Chiapas. / This study explores the narrative construction of personal and social identity among adolescents from the Intercultural University of Chiapas. The general aim is to show and illustrate a theoretical model that tries to explain two functions of the identity in adolescent developmental period and the psychosocial mechanisms that are involved. We examined information collected by different methods or different instruments (triangulation). Specifically, we used four measures: the identity functions and group perceptions questionnaire (IF-GP), the multigroup ethnic identity measure (MEIM), both quantitative, the life story interview (LSI) and the self picture (SP), both qualitative. In the quantitative study participants were 331 adolescents (144 mestizos and 187 indigenous). The average was 21.7 years (SD = 2.65; range: 17-40). In the qualitative study participants were 12 students (6 indigenous and 6 mestizos). Our findings suggest one general conclusion. There are identity differences between mestizos and indigenous from Intercultural University of Chiapas.
19

El argumento antiescéptico de Davidson como punto de convergencia de innovaciones radicales

Navia, Ricardo 09 April 2018 (has links)
El artículo expone el argumento antiescéptico de Davidson; pero, en el análisis del argumento y de las respuestas a sus críticos, va quedando claro que los argumentos e instrumentos utilizados en este y otros puntos de la obra de Davidson implican la remoción de algunos de los supuestos básicos del paradigma filosófico dominante de matriz cartesiana. Así, el abandono del mito de lo subjetivo y su sustitución por la idea del carácter esencialmente intersubjetivo del pensamiento y de sus contenidos; la asunción del carácter esencialmente social del lenguaje y, con él, de la normatividad y, ya en un plano metafilosófico,el abandono del fundacionismo y la simultánea refutación, por inconsistencia, de su contracara, el escepticismo filosófico.---Davidson’s Antiskeptic Argument as a Convergence of Radical Innovations”. This article exposes Davidson’s antiskeptical strategy. After that analysis it aims to turn clear that the arguments and tools used in this and other aspects of Davidson’s works imply the removal of some of the basic assumptions of the dominant philosophical paradigm of Cartesian basis. Thus: the abandonment of the myth of the subjective and its substitution by the idea of the essentially intersubjective character of thought and its contents; the assumption of the essentially social character of language and, with it, of the normativity, and, in a metaphilosophical level, the abandonment of the foundacionism and the simultaneous rebuttal, by inconsistency, of philosophical skepticism.
20

Percepción y representaciones sociales del riesgo hídrico en el sudoeste bonaerense : el caso de la cuenca del arroyo Napostá Grande

Mastrandrea, Aldana 17 February 2021 (has links)
La cuenca del arroyo Napostá Grande incluye los partidos de Tornquist y Bahía Blanca y presenta un régimen marcado por una gran variabilidad con épocas de abundante caudal y períodos de estiaje. En su trayecto, atraviesa diferentes tipos de asentamientos correspondientes al espacio urbano y rural, cuyas características ambientales y la percepción y representaciones sociales que los habitantes elaboran de ellas, constituyen los ejes centrales de la investigación. En el área de estudio, la alternancia de eventos de exceso y déficit hídrico es un fenómeno recurrente que genera diversos inconvenientes en la vida cotidiana de los habitantes. En la tesis se aborda la percepción de riegos ambientales, en general, y de riesgo hídrico, en particular junto con la identificación de áreas con distinto grado de criticidad ambiental y las representaciones sociales que construyen los actores involucrados. En este contexto, la implementación de Tecnologías de la Información Geográfica (TIG´s) a través del empleo de un Sistema de Información Geográfica (SIG) resulta de gran interés en el reconocimiento, localización, visualización, relación y análisis de las variables del medio natural y socio-cultural, debido a que constituye el punto de partida para la planificación territorial. El proceso de investigación seleccionado de carácter mixto, tanto cualitativo como cuantitativo, integra distintos enfoques epistemológicos y metodológicos con el propósito de comprender la compleja relación sociedad-naturaleza referida a la percepción social del riesgo hídrico. Para ello, se recurre a la triangulación de métodos, técnicas y fuentes de datos, estrategia que permite enriquecer el análisis mediante la reducción de los sesgos derivados de la consideración de un único enfoque. De esta manera, las variables peligrosidad, vulnerabilidad, exposición e incertidumbre propuestas por la Teoría Social del Riesgo se analizan de modo integral para abordar la complejidad referida a la generación de potenciales problemas ambientales. Por su parte, el Análisis Crítico del Discurso de los vecinos del espacio urbano y rural, del sector periodístico -prensa escrita, periodismo televisivo y digital-, científico -docentes, investigadores, técnicos y especialistas en temáticas medioambientales- y político-funcionarios, técnicos y autoridades responsables de la gestión territorial- permitirá reconocer la percepción y representaciones sociales del riesgo hídrico que elaboran. El conocimiento de la dinámica natural de la cuenca y de la percepción y representaciones sociales del riesgo hídrico que los actores sociales del área bajo estudio construyen proporcionará una información relevante para la gestión del territorio ante la probabilidad de ocurrencia de potenciales problemas ambientales entre los que se encuentran las inundaciones, anegamientos, desbordes del arroyo, procesos de erosión y sequías. El análisis integrado de las variables consideradas permite identificar sectores susceptibles a la ocurrencia de fenómenos potencialmente peligrosos y definir propuestas de intervención tendientes a prevenir y minimizar los efectos ocasionados en una población que es vulnerable a ellos. Dicho abordaje colabora en la toma de decisiones en los diversos sectores de la cuenca (superior, media e inferior) de acuerdo con su dinámica y según la percepción y representaciones sociales que los habitantes elaboran de los problemas ambientales que consideran significativos. / The Napostá Grande watershed includes the Tornquist and Bahía Blanca districts and presents a regime marked by great variability with periods of abundant flow and periods of low water. On its way, it crosses different types of settlements corresponding to the urban and rural space whose environmental characteristics and the perception and social representations that the inhabitants elaborate of them constitute the central axes of the research. In the study area, the alternation of events of excess and water deficit is a recurring phenomenon that generates various inconveniences in the daily life of the inhabitants. The thesis addresses the perception of environmental risks, in general, and water risk, in particular together with the identification of areas with different degrees of environmental criticality and the social representations that the actors involved construct. In this context, the implementation of Geographical Information Technologies (TIGs) through the use of a Geographic Information System (GIS) is of great interest in the recognition, location, visualization, relationship and analysis of environmental variables. natural and social, because it constitutes the starting point for territorial planning. The selected research process of a mixed nature, both qualitative and quantitative, integrates different epistemological and methodological approaches in order to understand the complex society-nature relationship referred to the social perception of water risk. For this, the triangulation of methods, techniques and sources of information is used, a strategy that allows enriching the analysis by reducing the biases derived from considering a single approach. In this way, the variables dangerousness, vulnerability, exposure and uncertainty proposed by the Social Theory of Risk are analyzed comprehensively to address the complexity related to the generation of potential environmental problems. For its part, the Critical Analysis of the Discourse of the residents of the urban and rural space, of the journalistic sector -written press, television and digital journalism-, scientist-teachers, researchers, technicians and specialists in environmental issues- and political-officials, technicians and authorities responsible for territorial management - will allow to recognize the perception and social representations of the water risk that they elaborate. The knowledge of the natural dynamics of the watershed and the perception and social representations of water risk that the social actors of the area under study build will provide relevant information for the management of the territory in view of the probability of occurrence of potential environmental problems, among which are floods, stream overflows, erosion processes and droughts. The integrated analysis of the environmental variables considered allows identifying sectors susceptible to the occurrence of potentially dangerous phenomena and defining intervention proposals aimed at preventing and minimizing the effects caused in a population that is vulnerable to them. This approach collaborates in decision-making in the various sectors of the watershed (upper, middle and lower) according to their dynamics and according to the perception and social representations that the inhabitants elaborate of the environmental problems that they consider significant.

Page generated in 0.0553 seconds