• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 313
  • 108
  • 2
  • 2
  • 1
  • Tagged with
  • 778
  • 778
  • 215
  • 145
  • 144
  • 127
  • 126
  • 126
  • 126
  • 126
  • 111
  • 103
  • 98
  • 96
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica

Acevedo Martínez, Liesner 11 February 2010 (has links)
Esta tesis tiene el objetivo de estudiar aplicaciones de la transformada wavelet discreta (DWT) al álgebra lineal numérica. Se hace un estudio de las distintas variantes de paralelización de la DWT y se propone una nueva variante paralela, en memoria distribuida, con distribuciones de datos orientadas a bloques de matrices, como la 2DBC de ScaLAPACK. La idea es que la DWT en muchos casos es una operación intermedia y debe ajustarse a las distribuciones de datos que se estén usando. Se define y demuestra una forma de calcular exactamente la cantidad de elementos que debe comunicar cada procesador para que se puedan calcular de forma independiente todo los coeficientes wavelet en una cantidad de niveles determinada. Finalmente se propone una variante específica, más eficiente, para el cálculo de la DWT-2D cuando se aplica como paso previo a la resolución de un sistema de ecuaciones distribuido 2DBC, considerando una permutación de las filas y columnas del sistema que minimiza las comunicaciones. Otro de los aportes de esta tesis es el de considerar como un caso típico, el cálculo de la DWT-2D no estándar en matrices dispersas, proponemos algoritmos para realizar esta operación sin necesidad de construir explícitamente la matriz wavelet. Además tenemos en cuenta el fenómeno de rellenado (fill-in) que ocurre al aplicar la DWT a una matriz dispersa. Para ello exploramos con los métodos de reordenamiento clásicos de grado mínimo y de reducción a banda. De forma adicional sugerimos como pueden influir esos reordenamientos a la convergencia de los métodos multimalla ya que ocurre una redistribución de la norma de la matriz hacia los niveles inferiores de la representación multi-escala, lo que garantizaría una mejor compresión. El campo de aplicación de la transformada wavelet que se propone es la resolución de grandes sistemas de ecuaciones lineales. / Acevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107
452

Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales

Trujillo Rasúa, Rafael Arturo 11 February 2010 (has links)
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton. / Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108
453

Nuevos métodos meta heurísticos para la asignación eficiente, optimizada y robusta de recursos limitados

CERVANTES POSADA, Mª MARGARITA 23 April 2010 (has links)
Los problemas de optimización y satisfacción de restricciones son extraordinariamente complejos y variados. Al mismo tiempo, son problemas de alto interés, tanto en el aspecto científico-técnico como en el aplicado. Por ello, poder disponer de soluciones algorítmicas eficientes y flexibles supone un alto valor añadido en muy diferentes entornos de aplicación. Entre los problemas más típicos se encuentran los problemas de scheduling o asignación temporal de recursos. Esta clase de problemas implican la ejecución de acciones que requieren recursos cuya disponibilidad está limitada y por tanto deben asignarse de modo eficiente Dentro de la amplia variedad de los problemas de scheduling, destaca el problema de programación de proyectos con recursos limitados. Dicho problema considera un conjunto de actividades relacionadas entre si mediante relaciones de precedencia, un conjunto de recursos con un límite en su disponibilidad y un conjunto de medidas de desempeño. El objetivo es obtener la mejor manera de asignar dichos recursos a las actividades, de tal manera que se optimice la medida de desempeño. Se han publicado muchos y diversos trabajos en relación al problema estándar de programación de proyectos con recursos limitados(RCPSP), el cual incluye un único modo de ejecución de las actividades que le conforman, abordando su solución con métodos exactos y métodos aproximados. En cuanto al problema que considera la posibilidad de que cada actividad se ejecute en uno de varios posibles modos (MRCPSP), su estudio no es tan amplio como el del caso anterior. El objetivo de esta tesis es proponer, diseñar y desarrollar nuevos métodos metaheurísticos para obtener una asignación optimizada de recursos en este complejo problema de scheduling. Para el caso del RCPSP, hemos seguido un proceso de refinamiento para la propuesta de una heurística y un algoritmo genético utilizando de manera selectiva el método de mejora de programaciones factibles FBI. / Cervantes Posada, MM. (2010). Nuevos métodos meta heurísticos para la asignación eficiente, optimizada y robusta de recursos limitados [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7582
454

Técnicas de monitorización y diferenciación de servicios para la asignación de recursos en entornos de computación Grid, en base a indicadores de nivel de servicio

Torres Serrano, Erik 07 May 2010 (has links)
El fortalecimiento de las infraestructuras de computación Grid, como plataforma para el acceso a recursos de cómputo y de almacenamiento en forma de servicios en Internet, ha dado lugar a una nueva necesidad: vincular las solicitudes de los usuarios con los servicios más apropiados, con el objetivo de mejorar la eficiencia de utilización de los recursos que forman parte del Grid, a la vez que mejorar las prestaciones de los trabajos ejecutados en el mismo. Esta necesidad se traduce, en la práctica, en la demanda de nuevos mecanismos de planificación de trabajos y de gestión de recursos, que permitan dotar a las infraestructuras Grid con nuevas estrategias para proporcionar niveles de servicio diferentes a diferentes perfiles de usuarios, proyectos y aplicaciones, y todo ello sobre la base de los requerimientos de calidad de servicio (Quality of Service o QoS) de cada perfil, formalizados en un contrato de nivel de servicio (Service Level Agreements o SLA). Por estas razones, proporcionar QoS en entornos de computación Grid es un área de investigación muy activa, a la vez que muy importante para la evolución del Grid hacia una infraestructura de propósito general que soporte modelos de negocio complejos. Sin embargo, a pesar de los avances en las técnicas de planificación y de gestión de recursos, el soporte para QoS en entornos de computación Grid es todavía muy limitado y, hasta el momento, no existe una solución definitiva para el problema. En este trabajo proponemos un nuevo modelo para la asignación de recursos en el Grid, en base a requerimientos de QoS. Como parte de este modelo, los servicios Grid son evaluados periódicamente a través de casos de prueba representativos, que son ejecutados en los recursos y que sirven para determinar la capacidad de los mismos para funcionar con unas prestaciones y una disponibilidad determinadas. A la vez, los recursos deben ser continuamente monitorizados para conocer su estado. / Torres Serrano, E. (2010). Técnicas de monitorización y diferenciación de servicios para la asignación de recursos en entornos de computación Grid, en base a indicadores de nivel de servicio [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7768
455

ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS

Jiménez González, Daniel 20 July 2011 (has links)
La información es útil si cuando se necesita está disponible y se puede hacer uso de ella. La disponibilidad suele darse fácilmente cuando la información está bien estructurada y ordenada, y además, no es muy extensa. Pero esta situación no es la más común, cada vez se tiende más a que la cantidad de información ofrecida crezca de forma desmesurada, que esté desestructurada y que no presente un orden claro. La estructuración u ordenación manual es inviable debido a las dimensiones de la información a manejar. Por todo ello se hace clara la utilidad, e incluso la necesidad, de buenos sistemas de recuperación de información (SRI). Además, otra característica también importante es que la información tiende a presentarse de forma natural de manera distribuida, lo cual implica la necesidad de SRI que puedan trabajar en entornos distribuidos y con técnicas de paralelización. Esta tesis aborda todos estos aspectos desarrollando y mejorando métodos que permitan obtener SRI con mejores prestaciones, tanto en calidad de recuperación como en eficiencia computacional, los cuales además permiten trabajar desde el enfoque de sistemas ya distribuidos. El principal objetivo de los SRI será proporcionar documentos relevantes y omitir los considerados irrelevantes respecto a una consulta dada. Algunos de los problemas más destacables de los SRI son: la polisemia y la sinonimia; las palabras relacionadas (palabras que juntas tienen un signi cado y separadas otro); la enormidad de la información a manejar; la heterogeneidad de los documentos; etc. De todos ellos esta tesis se centra en la polisemia y la sinonimia, las palabras relacionadas (indirectamente mediante la lematización semántica) y en la enormidad de la información a manejar. El desarrollo de un SRI comprende básicamente cuatro fases distintas: el preprocesamiento, la modelización, la evaluación y la utilización. El preprocesamiento que conlleva las acciones necesarias para transformar los documentos de la colección en una estructura de datos con la información relevante de los documentos ha sido una parte importante del estudio de esta tesis. En esta fase nos hemos centrado en la reducción de los datos y estructuras a manejar, maximizando la información contenida. La modelización, ha sido la fase más analizada y trabajada en esta tesis, es la que se encarga de defi nir la estructura y comportamiento del SRI. / Jiménez González, D. (2011). ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11234
456

MODELOS Y TÉCNICAS DE CONSISTENCIA EN PROBLEMAS DE SATISFACCIÓN DE RESTRICCIONES

Arangú Lobig, Marlene Alicia 23 December 2011 (has links)
Hoy en día, muchos problemas reales pueden ser modelados como problemas de satisfacción de restricciones (CSPs) y ser resueltos utilizando técnicas de programación de restricciones. Estos problemas pertenecen a diferentes áreas de conocimiento tales como inteligencia artificial, investigación operativa, sistemas de información, bases de datos, etc. Los CSPs pertenecen a la categoría de problemas NP-completos por lo que es necesario el uso de herramientas que simplifiquen el problema de forma que se encuentre una solución de forma eficiente. Las técnicas más comunes para manejar un CSP son las técnicas de consistencia y las técnicas de búsqueda. Las técnicas de consistencia o de filtrado tienen por objeto reducir el espacio de búsqueda mediante el filtrado de los dominios de las variables. Las técnicas de arcoconsistencia son las más utilizadas ya que llevan a cabo una importante poda de dominios; eliminando valores que no formaran parte de la solución; de una manera eficiente. Por ello, proponer algoritmos que alcancen la arco-consistencia ha sido un punto central en la comunidad científica reduciendo la complejidad tanto espacial como temporal de estos algoritmos. Sin embargo, muchos trabajos que investigan la arco-consistencia llevan a cabo asumpciones que no están presentes en muchos problemas de la vida real. Por ejemplo, un mismo par de variables pueden participar en más de una restricción (lo que se denomina problema no-normalizado), y cuando el tamaño de los dominios es grande, el proceso de normalización puede resultar prohibitivo. En estos casos la 2-consistencia lleva a cabo una reducción de los dominios de las variables mayor que la arco-consistencia por lo que los algoritmos de búsqueda pueden resultar más eficientes. Sin embargo, la literatura es escasa en relación al desarrollo de algoritmos que alcancen la 2-consistencia. En esta tesis presentamos nuevos algoritmos de arco-consistencia y de 2-consistencia como algoritmos de preproceso para la resolución de problemas de satisfacción de restricciones. / Arangú Lobig, MA. (2011). MODELOS Y TÉCNICAS DE CONSISTENCIA EN PROBLEMAS DE SATISFACCIÓN DE RESTRICCIONES [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14120
457

Optimisation of nonlinear photonic devices: design of optical fibre spectra and plasmonic systems

Milián Enrique, Carles 10 February 2012 (has links)
El propósito de esta tesis es diseñar y optimizar dispositivos fotónicos en el régimen no lineal. En particular, se han elegido dos tipos de dispositivos, que se clasifican según los fenómenos físicos de interés. La primera clase corresponde a fibras convencionales o de cristal fotónico, diseñadas para que la dinámica temporal de los paquetes de onda que se propagan en su interior genere espectros con las características deseadas, en el contexto del supercontinuo. La segunda clase explota la fenomenología espacial asociada a las ondas electromagnéticas que se propagan sobre la superficie de un metal. Estas ondas permiten, desde diseñar dispositivos tipo chip fotónico cuyas dimensiones típicas están muy por debajo de la longitud de onda de la luz, hasta la generación de estados no lineales híbridos de dinámica singular. Todos estos efectos tienen lugar dentro del marco proporcionado por las ecuaciones de Maxwell macroscópicas, las cuales han sido resueltas numéricamente. En algunos casos se emplean grandes aproximaciones teóricas para estudiar sistemas 1D, mientras que en otros se integran directamente en 3D. En el caso en el que la optimización del dispositivo resulta no trivial tras haber adquirido un conocimiento teórico profundo del mismo, se emplea una novedosa herramienta numérica que nace de la combinación de algoritmos genéticos con plataforma Grid. / Milián Enrique, C. (2012). Optimisation of nonlinear photonic devices: design of optical fibre spectra and plasmonic systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14670
458

Desarrollo y validación de soluciones tecnológicas para el aprendizaje a través de la plataforma de e-learning Ingenio

de Siqueira Rocha, Jose Macario 09 March 2012 (has links)
La presente tesis gira en torno al desarrollo y la validación de soluciones tecnológicas para el aprendizaje a través de la Plataforma de E-learning InGenio. Tiene como base el desarrollo y el análisis de las soluciones implementadas en InGenio desde una perspectiva técnica, como fruto de nuestra labor investigadora en diversos proyectos de I+D+i relacionados con la enseñanza y el aprendizaje asistidos por ordenador a través de la web. Entre estos proyectos, se destacan el proyecto CALL@C&S, un proyecto europeo para la creación de cursos de checo y de eslovaco en InGenio, y el proyecto PAULEX, un proyecto nacional que investiga las posibilidades de informatización del examen de lengua extranjera de las Pruebas de Acceso a la Universidad en España. La investigación se centra en algunas soluciones específicas desarrolladas y utilizadas para el aprendizaje y utiliza diversos experimentos con estudiantes, con profesores y con investigadores para medir los resultados, principalmente a través del análisis con métodos cualitativos. La Plataforma InGenio se utiliza como instrumento de estudio teniendo en cuenta que es una de las plataformas que se utilizan en la actualidad para la enseñanza de lenguas a través de Internet y que ha sido diseñada en gran medida por el autor de esta tesis. En su conjunto, esta tesis propone una metodología de desarrollo y de análisis de soluciones tecnológicas para el aprendizaje a través de plataformas de E-learning. En ella queda reflejada la base teórica, metodológica y práctica de la investigación llevada a cabo, desde una perspectiva técnica informática. Los resultados alcanzados han sido diversos: por una parte, se ha desarrollado la nueva versión de InGenio, una versión que se ha mostrado flexible y que ha sido utilizada por varios profesores para la enseñanza de lenguas a través de la web. / De Siqueira Rocha, JM. (2011). Desarrollo y validación de soluciones tecnológicas para el aprendizaje a través de la plataforma de e-learning Ingenio [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14980
459

Redes neuronales y preprocesado de variables para modelos y sensores en bioingeniería

Mateo Jiménez, Fernando 19 July 2012 (has links)
El propósito de esta Tesis Doctoral es proponer una alternativa viable a la aproximación de modelos y procesos en el ámbito científico y, más concretamente, en aplicaciones complejas de bioingeniería, en las cuales es imposible o muy costoso encontrar una relación directa entre las señales de entrada y de salida mediante modelos matemáticos sencillos o aproximaciones estadísticas. Del mismo modo, es interesante lograr una compactación de los datos que necesita un modelo para conseguir una predicción o clasificación en un tiempo y con un coste de implementación mínimos. Un modelo puede ser simplificado en gran medida al reducir el número de entradas o realizar operaciones matemáticas sobre éstas para transformarlas en nuevas variables. En muchos problemas de regresión (aproximación de funciones), clasificación y optimización, en general se hace uso de las nuevas metodologías basadas en la inteligencia artificial. La inteligencia artificial es una rama de las ciencias de la computación que busca automatizar la capacidad de un sistema para responder a los estímulos que recibe y proponer salidas adecuadas y racionales. Esto se produce gracias a un proceso de aprendizaje, mediante el cual se presentan ciertas muestras o �ejemplos� al modelo y sus correspondientes salidas y éste aprende a proponer las salidas correspondientes a nuevos estímulos que no ha visto previamente. Esto se denomina aprendizaje supervisado. También puede darse el caso de que tal modelo asocie las entradas con características similares entre sí para obtener una clasificación de las muestras de entrada sin necesidad de un patrón de salida. Este modelo de aprendizaje se denomina no supervisado. El principal exponente de la aplicación de la inteligencia artificial para aproximación de funciones y clasificación son las redes neuronales artificiales. Se trata de modelos que han demostrado sobradamente sus ventajas en el ámbito del modelado estadístico y de la predicción frente a otros métodos clásicos. N / Mateo Jiménez, F. (2012). Redes neuronales y preprocesado de variables para modelos y sensores en bioingeniería [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16702
460

Constructing Covering Arrays using Parallel Computing and Grid Computing

Avila George, Himer 10 September 2012 (has links)
A good strategy to test a software component involves the generation of the whole set of cases that participate in its operation. While testing only individual values may not be enough, exhaustive testing of all possible combinations is not always feasible. An alternative technique to accomplish this goal is called combinato- rial testing. Combinatorial testing is a method that can reduce cost and increase the effectiveness of software testing for many applications. It is based on con- structing functional test-suites of economical size, which provide coverage of the most prevalent configurations. Covering arrays are combinatorial objects, that have been applied to do functional tests of software components. The use of cov- ering arrays allows to test all the interactions, of a given size, among the input parameters using the minimum number of test cases. For software testing, the fundamental problem is finding a covering array with the minimum possible number of rows, thus reducing the number of tests, the cost, and the time expended on the software testing process. Because of the importance of the construction of (near) optimal covering arrays, much research has been carried out in developing effective methods for constructing them. There are several reported methods for constructing these combinatorial models, among them are: (1) algebraic methods, recursive methods, (3) greedy methods, and (4) metaheuristics methods. Metaheuristic methods, particularly through the application of simulated anneal- ing has provided the most accurate results in several instances to date. Simulated annealing algorithm is a general-purpose stochastic optimization method that has proved to be an effective tool for approximating globally optimal solutions to many optimization problems. However, one of the major drawbacks of the simulated an- nealing is the time it requires to obtain good solutions. In this thesis, we propose the development of an improved simulated annealing algorithm / Avila George, H. (2012). Constructing Covering Arrays using Parallel Computing and Grid Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17027

Page generated in 0.1066 seconds