Spelling suggestions: "subject:"inteligência artificial."" "subject:"inteligentes artificial.""
451 |
Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal NuméricaAcevedo Martínez, Liesner 11 February 2010 (has links)
Esta tesis tiene el objetivo de estudiar aplicaciones de la transformada wavelet discreta (DWT) al álgebra lineal numérica.
Se hace un estudio de las distintas variantes de paralelización de la DWT y se propone una nueva variante paralela, en memoria distribuida, con distribuciones de datos orientadas a bloques de matrices, como la 2DBC de ScaLAPACK. La idea es que la DWT en muchos casos es una operación intermedia y debe ajustarse a las distribuciones de datos que se estén usando. Se define y demuestra una forma de calcular exactamente la cantidad de elementos que debe comunicar cada procesador para que se puedan calcular de forma independiente todo los coeficientes wavelet en una cantidad de niveles determinada. Finalmente se propone una variante específica, más eficiente, para el cálculo de la DWT-2D cuando se aplica como paso previo
a la resolución de un sistema de ecuaciones distribuido 2DBC, considerando una permutación de las filas y columnas del sistema que minimiza las comunicaciones.
Otro de los aportes de esta tesis es el de considerar como un caso típico, el cálculo de la DWT-2D no estándar en matrices dispersas, proponemos algoritmos para realizar esta operación sin necesidad de construir explícitamente la matriz wavelet. Además tenemos en cuenta el fenómeno de rellenado (fill-in) que ocurre al aplicar la DWT a una matriz dispersa. Para ello exploramos con los métodos de reordenamiento clásicos de grado mínimo y de reducción a banda. De forma adicional sugerimos como pueden influir esos reordenamientos a la convergencia de los métodos multimalla ya que ocurre una redistribución de la norma de la matriz hacia los niveles inferiores de la representación multi-escala, lo que garantizaría una mejor compresión.
El campo de aplicación de la transformada wavelet que se propone es la resolución de grandes sistemas de ecuaciones lineales. / Acevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107
|
452 |
Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señalesTrujillo Rasúa, Rafael Arturo 11 February 2010 (has links)
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output).
Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización.
Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton. / Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108
|
453 |
Nuevos métodos meta heurísticos para la asignación eficiente, optimizada y robusta de recursos limitadosCERVANTES POSADA, Mª MARGARITA 23 April 2010 (has links)
Los problemas de optimización y satisfacción de restricciones son
extraordinariamente complejos y variados. Al mismo tiempo, son problemas
de alto interés, tanto en el aspecto científico-técnico como en el aplicado. Por
ello, poder disponer de soluciones algorítmicas eficientes y flexibles supone
un alto valor añadido en muy diferentes entornos de aplicación. Entre los
problemas más típicos se encuentran los problemas de scheduling o asignación
temporal de recursos. Esta clase de problemas implican la ejecución de
acciones que requieren recursos cuya disponibilidad está limitada y por tanto
deben asignarse de modo eficiente
Dentro de la amplia variedad de los problemas de scheduling, destaca
el problema de programación de proyectos con recursos limitados. Dicho
problema considera un conjunto de actividades relacionadas entre si mediante
relaciones de precedencia, un conjunto de recursos con un límite en su
disponibilidad y un conjunto de medidas de desempeño. El objetivo es obtener
la mejor manera de asignar dichos recursos a las actividades, de tal manera
que se optimice la medida de desempeño.
Se han publicado muchos y diversos trabajos en relación al problema
estándar de programación de proyectos con recursos limitados(RCPSP), el
cual incluye un único modo de ejecución de las actividades que le conforman,
abordando su solución con métodos exactos y métodos aproximados. En
cuanto al problema que considera la posibilidad de que cada actividad se
ejecute en uno de varios posibles modos (MRCPSP), su estudio no es tan
amplio como el del caso anterior.
El objetivo de esta tesis es proponer, diseñar y desarrollar nuevos métodos
metaheurísticos para obtener una asignación optimizada de recursos en este
complejo problema de scheduling.
Para el caso del RCPSP, hemos seguido un proceso de refinamiento para
la propuesta de una heurística y un algoritmo genético utilizando de manera
selectiva el método de mejora de programaciones factibles FBI. / Cervantes Posada, MM. (2010). Nuevos métodos meta heurísticos para la asignación eficiente, optimizada y robusta de recursos limitados [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7582
|
454 |
Técnicas de monitorización y diferenciación de servicios para la asignación de recursos en entornos de computación Grid, en base a indicadores de nivel de servicioTorres Serrano, Erik 07 May 2010 (has links)
El fortalecimiento de las infraestructuras de computación Grid, como plataforma para el acceso a
recursos de cómputo y de almacenamiento en forma de servicios en Internet, ha dado lugar a una nueva
necesidad: vincular las solicitudes de los usuarios con los servicios más apropiados, con el objetivo de
mejorar la eficiencia de utilización de los recursos que forman parte del Grid, a la vez que mejorar las
prestaciones de los trabajos ejecutados en el mismo. Esta necesidad se traduce, en la práctica, en la
demanda de nuevos mecanismos de planificación de trabajos y de gestión de recursos, que permitan
dotar a las infraestructuras Grid con nuevas estrategias para proporcionar niveles de servicio diferentes
a diferentes perfiles de usuarios, proyectos y aplicaciones, y todo ello sobre la base de los
requerimientos de calidad de servicio (Quality of Service o QoS) de cada perfil, formalizados en un
contrato de nivel de servicio (Service Level Agreements o SLA).
Por estas razones, proporcionar QoS en entornos de computación Grid es un área de investigación muy
activa, a la vez que muy importante para la evolución del Grid hacia una infraestructura de propósito
general que soporte modelos de negocio complejos.
Sin embargo, a pesar de los avances en las técnicas de planificación y de gestión de recursos, el soporte
para QoS en entornos de computación Grid es todavía muy limitado y, hasta el momento, no existe una
solución definitiva para el problema.
En este trabajo proponemos un nuevo modelo para la asignación de recursos en el Grid, en base a
requerimientos de QoS. Como parte de este modelo, los servicios Grid son evaluados periódicamente a
través de casos de prueba representativos, que son ejecutados en los recursos y que sirven para
determinar la capacidad de los mismos para funcionar con unas prestaciones y una disponibilidad
determinadas. A la vez, los recursos deben ser continuamente monitorizados para conocer su estado. / Torres Serrano, E. (2010). Técnicas de monitorización y diferenciación de servicios para la asignación de recursos en entornos de computación Grid, en base a indicadores de nivel de servicio [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7768
|
455 |
ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOSJiménez González, Daniel 20 July 2011 (has links)
La información es útil si cuando se necesita está disponible y se puede hacer
uso de ella. La disponibilidad suele darse fácilmente cuando la información está bien
estructurada y ordenada, y además, no es muy extensa. Pero esta situación no es
la más común, cada vez se tiende más a que la cantidad de información ofrecida
crezca de forma desmesurada, que esté desestructurada y que no presente un orden
claro. La estructuración u ordenación manual es inviable debido a las dimensiones
de la información a manejar. Por todo ello se hace clara la utilidad, e incluso la
necesidad, de buenos sistemas de recuperación de información (SRI). Además, otra
característica también importante es que la información tiende a presentarse de forma
natural de manera distribuida, lo cual implica la necesidad de SRI que puedan trabajar
en entornos distribuidos y con técnicas de paralelización.
Esta tesis aborda todos estos aspectos desarrollando y mejorando métodos que
permitan obtener SRI con mejores prestaciones, tanto en calidad de recuperación como
en eficiencia computacional, los cuales además permiten trabajar desde el enfoque de
sistemas ya distribuidos.
El principal objetivo de los SRI será proporcionar documentos relevantes y omitir
los considerados irrelevantes respecto a una consulta dada. Algunos de los problemas
más destacables de los SRI son: la polisemia y la sinonimia; las palabras relacionadas
(palabras que juntas tienen un signi cado y separadas otro); la enormidad de la información a manejar; la heterogeneidad de los documentos; etc. De todos ellos esta tesis
se centra en la polisemia y la sinonimia, las palabras relacionadas (indirectamente
mediante la lematización semántica) y en la enormidad de la información a manejar.
El desarrollo de un SRI comprende básicamente cuatro fases distintas: el preprocesamiento,
la modelización, la evaluación y la utilización. El preprocesamiento
que conlleva las acciones necesarias para transformar los documentos de la colección
en una estructura de datos con la información relevante de los documentos ha sido
una parte importante del estudio de esta tesis. En esta fase nos hemos centrado en
la reducción de los datos y estructuras a manejar, maximizando la información contenida.
La modelización, ha sido la fase más analizada y trabajada en esta tesis, es
la que se encarga de defi nir la estructura y comportamiento del SRI. / Jiménez González, D. (2011). ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11234
|
456 |
MODELOS Y TÉCNICAS DE CONSISTENCIA EN PROBLEMAS DE SATISFACCIÓN DE RESTRICCIONESArangú Lobig, Marlene Alicia 23 December 2011 (has links)
Hoy en día, muchos problemas reales pueden ser modelados como problemas de
satisfacción de restricciones (CSPs) y ser resueltos utilizando técnicas de programación de restricciones. Estos problemas pertenecen a diferentes áreas de conocimiento
tales como inteligencia artificial, investigación operativa, sistemas de información,
bases de datos, etc. Los CSPs pertenecen a la categoría de problemas NP-completos
por lo que es necesario el uso de herramientas que simplifiquen el problema de forma
que se encuentre una solución de forma eficiente. Las técnicas más comunes
para manejar un CSP son las técnicas de consistencia y las técnicas de búsqueda.
Las técnicas de consistencia o de filtrado tienen por objeto reducir el espacio de
búsqueda mediante el filtrado de los dominios de las variables. Las técnicas de arcoconsistencia
son las más utilizadas ya que llevan a cabo una importante poda de
dominios; eliminando valores que no formaran parte de la solución; de una manera
eficiente.
Por ello, proponer algoritmos que alcancen la arco-consistencia ha sido un punto
central en la comunidad científica reduciendo la complejidad tanto espacial como
temporal de estos algoritmos.
Sin embargo, muchos trabajos que investigan la arco-consistencia llevan a cabo
asumpciones que no están presentes en muchos problemas de la vida real. Por
ejemplo, un mismo par de variables pueden participar en más de una restricción (lo
que se denomina problema no-normalizado), y cuando el tamaño de los dominios
es grande, el proceso de normalización puede resultar prohibitivo. En estos casos
la 2-consistencia lleva a cabo una reducción de los dominios de las variables mayor
que la arco-consistencia por lo que los algoritmos de búsqueda pueden resultar más eficientes. Sin embargo, la literatura es escasa en relación al desarrollo de algoritmos
que alcancen la 2-consistencia.
En esta tesis presentamos nuevos algoritmos de arco-consistencia y de 2-consistencia
como algoritmos de preproceso para la resolución de problemas de satisfacción
de restricciones. / Arangú Lobig, MA. (2011). MODELOS Y TÉCNICAS DE CONSISTENCIA EN PROBLEMAS DE SATISFACCIÓN DE RESTRICCIONES [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14120
|
457 |
Optimisation of nonlinear photonic devices: design of optical fibre spectra and plasmonic systemsMilián Enrique, Carles 10 February 2012 (has links)
El propósito de esta tesis es diseñar y optimizar dispositivos fotónicos en el
régimen no lineal. En particular, se han elegido dos tipos de dispositivos, que se
clasifican según los fenómenos físicos de interés. La primera clase corresponde
a fibras convencionales o de cristal fotónico, diseñadas para que la dinámica
temporal de los paquetes de onda que se propagan en su interior genere espectros
con las características deseadas, en el contexto del supercontinuo. La segunda
clase explota la fenomenología espacial asociada a las ondas electromagnéticas
que se propagan sobre la superficie de un metal. Estas ondas permiten, desde
diseñar dispositivos tipo chip fotónico cuyas dimensiones típicas están muy por
debajo de la longitud de onda de la luz, hasta la generación de estados no lineales
híbridos de dinámica singular.
Todos estos efectos tienen lugar dentro del marco proporcionado por las ecuaciones
de Maxwell macroscópicas, las cuales han sido resueltas numéricamente.
En algunos casos se emplean grandes aproximaciones teóricas para estudiar sistemas
1D, mientras que en otros se integran directamente en 3D. En el caso en
el que la optimización del dispositivo resulta no trivial tras haber adquirido un
conocimiento teórico profundo del mismo, se emplea una novedosa herramienta
numérica que nace de la combinación de algoritmos genéticos con plataforma
Grid. / Milián Enrique, C. (2012). Optimisation of nonlinear photonic devices: design of optical fibre spectra and plasmonic systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14670
|
458 |
Desarrollo y validación de soluciones tecnológicas para el aprendizaje a través de la plataforma de e-learning Ingeniode Siqueira Rocha, Jose Macario 09 March 2012 (has links)
La presente tesis gira en torno al desarrollo y la validación de soluciones tecnológicas para el aprendizaje a través de la Plataforma de E-learning InGenio. Tiene como base el desarrollo y el análisis de las soluciones implementadas en InGenio desde una perspectiva técnica, como fruto de nuestra labor investigadora en diversos proyectos de I+D+i relacionados con la enseñanza y el aprendizaje asistidos por ordenador a través de la web. Entre estos proyectos, se destacan el proyecto CALL@C&S, un proyecto europeo para la creación de cursos de checo y de eslovaco en InGenio, y el proyecto PAULEX, un proyecto nacional que investiga las posibilidades de informatización del examen de lengua extranjera de las Pruebas de Acceso a la Universidad en España.
La investigación se centra en algunas soluciones específicas desarrolladas y utilizadas para el aprendizaje y utiliza diversos experimentos con estudiantes, con profesores y con investigadores para medir los resultados, principalmente a través del análisis con métodos cualitativos. La Plataforma InGenio se utiliza como instrumento de estudio teniendo en cuenta que es una de las plataformas que se utilizan en la actualidad para la enseñanza de lenguas a través de Internet y que ha sido diseñada en gran medida por el autor de esta tesis.
En su conjunto, esta tesis propone una metodología de desarrollo y de análisis de soluciones tecnológicas para el aprendizaje a través de plataformas de E-learning. En ella queda reflejada la base teórica, metodológica y práctica de la investigación llevada a cabo, desde una perspectiva técnica informática. Los resultados alcanzados han sido diversos: por una parte, se ha desarrollado la nueva versión de InGenio, una versión que se ha mostrado flexible y que ha sido utilizada por varios profesores para la enseñanza de lenguas a través de la web. / De Siqueira Rocha, JM. (2011). Desarrollo y validación de soluciones tecnológicas para el aprendizaje a través de la plataforma de e-learning Ingenio [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14980
|
459 |
Redes neuronales y preprocesado de variables para modelos y sensores en bioingenieríaMateo Jiménez, Fernando 19 July 2012 (has links)
El propósito de esta Tesis Doctoral es proponer una alternativa viable a la aproximación de
modelos y procesos en el ámbito científico y, más concretamente, en aplicaciones complejas de
bioingeniería, en las cuales es imposible o muy costoso encontrar una relación directa entre
las señales de entrada y de salida mediante modelos matemáticos sencillos o aproximaciones
estadísticas.
Del mismo modo, es interesante lograr una compactación de los datos que necesita un
modelo para conseguir una predicción o clasificación en un tiempo y con un coste de implementación
mínimos. Un modelo puede ser simplificado en gran medida al reducir el número
de entradas o realizar operaciones matemáticas sobre éstas para transformarlas en nuevas
variables.
En muchos problemas de regresión (aproximación de funciones), clasificación y optimización,
en general se hace uso de las nuevas metodologías basadas en la inteligencia artificial. La inteligencia
artificial es una rama de las ciencias de la computación que busca automatizar la
capacidad de un sistema para responder a los estímulos que recibe y proponer salidas adecuadas
y racionales. Esto se produce gracias a un proceso de aprendizaje, mediante el cual
se presentan ciertas muestras o �ejemplos� al modelo y sus correspondientes salidas y éste
aprende a proponer las salidas correspondientes a nuevos estímulos que no ha visto previamente.
Esto se denomina aprendizaje supervisado. También puede darse el caso de que tal
modelo asocie las entradas con características similares entre sí para obtener una clasificación
de las muestras de entrada sin necesidad de un patrón de salida. Este modelo de aprendizaje
se denomina no supervisado.
El principal exponente de la aplicación de la inteligencia artificial para aproximación de
funciones y clasificación son las redes neuronales artificiales. Se trata de modelos que han
demostrado sobradamente sus ventajas en el ámbito del modelado estadístico y de la predicción
frente a otros métodos clásicos.
N / Mateo Jiménez, F. (2012). Redes neuronales y preprocesado de variables para modelos y sensores en bioingeniería [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16702
|
460 |
Constructing Covering Arrays using Parallel Computing and Grid ComputingAvila George, Himer 10 September 2012 (has links)
A good strategy to test a software component involves the generation of the whole
set of cases that participate in its operation. While testing only individual values
may not be enough, exhaustive testing of all possible combinations is not always
feasible. An alternative technique to accomplish this goal is called combinato-
rial testing. Combinatorial testing is a method that can reduce cost and increase
the effectiveness of software testing for many applications. It is based on con-
structing functional test-suites of economical size, which provide coverage of the
most prevalent configurations. Covering arrays are combinatorial objects, that
have been applied to do functional tests of software components. The use of cov-
ering arrays allows to test all the interactions, of a given size, among the input
parameters using the minimum number of test cases.
For software testing, the fundamental problem is finding a covering array with
the minimum possible number of rows, thus reducing the number of tests, the
cost, and the time expended on the software testing process. Because of the
importance of the construction of (near) optimal covering arrays, much research
has been carried out in developing effective methods for constructing them. There
are several reported methods for constructing these combinatorial models, among
them are: (1) algebraic methods, recursive methods, (3) greedy methods, and (4)
metaheuristics methods.
Metaheuristic methods, particularly through the application of simulated anneal-
ing has provided the most accurate results in several instances to date. Simulated
annealing algorithm is a general-purpose stochastic optimization method that has
proved to be an effective tool for approximating globally optimal solutions to many
optimization problems. However, one of the major drawbacks of the simulated an-
nealing is the time it requires to obtain good solutions.
In this thesis, we propose the development of an improved simulated annealing
algorithm / Avila George, H. (2012). Constructing Covering Arrays using Parallel Computing and Grid Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17027
|
Page generated in 0.1066 seconds