• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 39
  • Tagged with
  • 117
  • 117
  • 58
  • 55
  • 49
  • 46
  • 44
  • 44
  • 44
  • 44
  • 44
  • 37
  • 32
  • 27
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Una aproximación a la desambiguación del sentido de las palabras basada en clases semánticas y aprendizaje automático

Izquierdo Beviá, Rubén 17 September 2010 (has links)
No description available.
52

Concit-Corpus: Context Citation Analysis to learn Function, Polarity and Influence

Hernández Álvarez, Myriam 21 September 2015 (has links)
No description available.
53

Radiomics for diagnosis and assessing brain diseases: an approach based on texture analysis on magnetic resonance imaging

Ortiz Ramón, Rafael 08 April 2019 (has links)
[ES] En los últimos años, los investigadores han intentado explotar la información de las imágenes médicas a través de la evaluación de parámetros cuantitativos para ayudar a los clínicos con el diagnóstico de enfermedades. Esta práctica ha sido bautizada como radiomics. El análisis de texturas proporciona una gran variedad de parámetros que permiten cuantificar la heterogeneidad característica de diferentes tejidos, especialmente cuando se obtienen de imagen por resonancia magnética (IRM). Basándonos en esto, decidimos estudiar las posibilidades de los parámetros texturales extraídos de IRM para caracterizar varios trastornos cerebrales. El potencial de las texturas se analizó con enfoques de aprendizaje automático, usando diferentes clasificadores y métodos de selección de características para hallar el modelo óptimo para cada tarea específica. En esta tesis, la metodología radiomics se usó para realizar cuatro proyectos independientes. En el primer proyecto, estudiamos la diferenciación entre glioblastomas multiformes (GBMs) y metástasis cerebrales (MCs) en IRM convencional. Estos tipos de tumores cerebrales pueden confundirse al diagnosticarse, ya que presentan un perfil radiológico similar y los datos clínicos pueden no ser concluyentes. Con el fin de evitar procedimientos exhaustivos e invasivos, estudiamos el poder discriminatorio de texturas 2D extraídas de imágenes de referencia T1 filtradas y sin filtrar. Los resultados sugieren que los parámetros texturales proporcionan información sobre la heterogeneidad de los GBMs y las MCs que puede servir para distinguir con precisión ambas lesiones cuando se utiliza un enfoque de aprendizaje automático adecuado. En el segundo proyecto, analizamos la clasificación de las MCs según su origen primario en IRM de referencia. En un porcentaje de pacientes, las MCs son diagnosticadas como la primera manifestación de un tumor primario desconocido. Con el fin de detectar el tumor primario de una forma no invasiva y más rápida, examinamos la capacidad del análisis de texturas 2D y 3D para diferenciar las MCs derivadas de los tumores primarios más propensos a metastatizar (cáncer de pulmón, cáncer de mama y melanoma) en imágenes T1. Los resultados mostraron que se logra una alta precisión al usar un conjunto reducido de texturas 3D para diferenciar MCs de cáncer de pulmón de MCs de cáncer de mama y melanoma. En el tercer proyecto, evaluamos las propiedades del hipocampo en IRM para identificar las diferentes etapas de la enfermedad de Alzheimer (EA). Los criterios actuales para diagnosticar la EA requieren la presencia de déficits cognitivos severos. Con la idea de establecer nuevos biomarcadores para detectar la EA en sus primeras etapas, evaluamos un conjunto de texturas 2D y 3D extraídas de IRM del hipocampo de pacientes con EA avanzada, deterioro cognitivo leve y normalidad cognitiva. Muchos parámetros de textura 3D resultaron ser estadísticamente significativos para diferenciar entre pacientes con EA y sujetos de las otras dos poblaciones. Al combinar estos parámetros con técnicas de aprendizaje automático, se obtuvo una alta precisión. En el cuarto proyecto, intentamos caracterizar los patrones de heterogeneidad del ictus cerebral isquémico en IRM estructural. En IRM cerebral de individuos de edad avanzada, algunos procesos patológicos presentan características similares, como las lesiones por ictus y las hiperintensidades de la sustancia blanca (HSBs). Dado que los ictus afectan también al tejido adyacente, decidimos estudiar la viabilidad de texturas 3D extraídas de las HSBs, la sustancia blanca no afectada y las estructuras subcorticales para diferenciar sujetos afectados por ictus lacunares o corticales visibles en IRM convencional (imágenes T1, T2 y FLAIR) de sujetos sin ictus. Las texturas no sirvieron para diferenciar ictus corticales y lacunares, pero se lograron resultados prometedores para discernir pacientes qu / [CAT] En els últims anys, els investigadors han intentat explotar la informació de les imatges mèdiques a través de l'avaluació de nombrosos paràmetres quantitatius per ajudar els clínics amb el diagnòstic i la valoració de malalties. Aquesta pràctica ha sigut batejada com radiomics,. L'anàlisi de textures proporciona una gran varietat de paràmetres que permeten quantificar l'heterogeneïtat característica de diferents teixits, especialment quan s'obtenen a partir d'imatge per ressonància magnètica (IRM). Basant-nos en aquests fets, vam decidir estudiar les possibilitats dels paràmetres texturals extrets d'IRM per caracteritzar diversos trastorns cerebrals. El potencial de les textures es va analitzar amb mètodes d'aprenentatge automàtic, usant diferents classificadors i mètodes de selecció de característiques per trobar el model òptim per a cada tasca específica. En aquesta tesi, la metodologia radiomics es va emprar per realitzar quatre projectes independents. En el primer projecte, vam estudiar la diferenciació entre glioblastomes multiformes (GBMs) i metàstasis cerebrals (MCs) en IRM convencional. Aquests tipus de tumors cerebrals poden confondre's al diagnosticar-se ja que presenten un perfil radiològic similar i les dades clíniques poden no ser concloents. Per tal d'evitar procediments exhaustius i invasius, vam estudiar el poder discriminatori de textures 2D extretes d'imatges de referència T1 filtrades i sense filtrar. Els resultats suggereixen que els paràmetres texturals proporcionen informació sobre l'heterogeneïtat dels GBMs i les MCs que pot servir per distingir amb precisió ambdues lesions quan s'utilitza una aproximació d'aprenentatge automàtic adequada. En el segon projecte, vam analitzar la classificació de MCs segons el seu origen primari en IRM de referència. En un percentatge de pacients, les MCs són diagnosticades com la primera manifestació d'un tumor primari desconegut. Per tal de detectar el tumor primari d'una forma no invasiva i més ràpida, vam examinar la capacitat de l'anàlisi de textura 2D i 3D per diferenciar les MCs derivades dels tumors primaris més propensos a metastatitzar (càncer de pulmó, càncer de mama i melanoma) en imatges T1. Els resultats van mostrar que s'aconsegueix una alta precisió quan s'utilitza un conjunt reduït de textures 3D per diferenciar les MCs de càncer de pulmó de les MCs de càncer de mama i melanoma. En el tercer projecte, vam avaluar les propietats de l'hipocamp en la IRM per identificar les diferents etapes de la malaltia d'Alzheimer (MA). Els criteris actuals per diagnosticar la MA requereixen la presència de dèficits cognitius severs. Amb la idea d'establir nous biomarcadors per detectar la MA en les seues primeres etapes, vam avaluar un conjunt de textures 2D i 3D extretes d'IRM de l'hipocamp de pacients amb MA avançada, deteriorament cognitiu lleu i normalitat cognitiva. Molts paràmetres de textura 3D van resultar ser estadísticament significatius per diferenciar entre pacients amb MA i individus de les altres dues poblacions. En combinar aquests paràmetres amb tècniques d'aprenentatge automàtic, es va obtenir una alta precisió. En el quart projecte, vam intentar caracteritzar els patrons d'heterogeneïtat de l'ictus cerebral isquèmic en la IRM estructural. En la IRM cerebral d'individus d'edat avançada, alguns processos patològics presenten característiques similars, com les lesions per ictus i les hiperintensitats de la substància blanca (HSBs). Atès que els ictus tenen efecte també en teixit adjacent, vam decidir estudiar la viabilitat de textures 3D extretes de les HSBs, la substància blanca no afectada i les estructures subcorticals per diferenciar individus afectats per ictus llacunars o corticals visibles en IRM convencional (imatges T1, T2 i FLAIR) d'individus sense ictus. Les textures no foren útils per diferenciar ictus corticals i llacunars, però es van obtenir resultats prometedors per disce / [EN] Over the last years, researchers have attempted to exploit the information provided by medical images through the evaluation of numerous imaging quantitative parameters in order to help clinicians with the diagnosis and assessment of many lesions and diseases. This practice has been recently named as radiomics. Texture analysis supply a wide range of features that allow quantifying the distinctive heterogeneity of different tissues, especially when obtained from magnetic resonance imaging (MRI). With this in mind, we decided to study the possibilities of texture features from MRI in order to characterize several disorders that affect the human brain. The potential of texture features was analyzed with various machine learning approaches, involving different classifiers and feature selection methods so as to find the optimal model to accomplish each specific task. In this thesis, the radiomics methodology was used to perform four independent projects. In the first project, we studied the differentiation between glioblastomas (GBMs) and brain metastases (BMs) in conventional MRI. Sometimes these types of brain tumors can be misdiagnosed since they may present a similar radiological profile and the clinical data may be inconclusive. With the aim of avoiding exhaustive and invasive procedures, we studied the discriminatory power of a large amount of 2D texture features extracted from baseline original and filtered T1-weighted images. The results suggest that 2D texture features provide some heterogeneity information of GBMs and BMs that can help in their accurate discernment when using the proper machine learning approach. In the second project, we analyzed the classification of BMs by their primary site of origin in baseline MRI. A percentage of patients are diagnosed with BM as the first manifestation of an unknown primary tumor. In order to detect the primary tumor in a faster non-invasive way, we examined the capability of 2D and 3D texture analysis to differentiate BMs derived from the most common primary tumors (lung cancer, breast cancer and melanoma) in T1-weighted images. The results showed that high accuracy was achieved when using a reduced set of 3D descriptors to differentiate lung cancer BMs from breast cancer and melanoma BMs. In the third project, we evaluated the hippocampus MRI profile of Alzheimer's disease (AD) patients to identify the different stages of the disease. The current criteria for diagnosing AD require the presence of relevant cognitive deficits. With the purpose of establishing new biomarkers to detect AD in its early stages, we evaluated a set of 2D and 3D texture features extracted from MRI scans of the hippocampus of patients with advanced AD, early mild cognitive impairment and cognitive normality. Many 3D texture parameters resulted to be statistically significant to differentiate between AD patients and subjects from the other two populations. When combining these 3D parameters with machine learning techniques, high accuracy was obtained. In the fourth project, we attempted to characterize the heterogeneity patterns of ischemic stroke in structural MRI. In brain MRI of older individuals, some pathological processes present similar imaging characteristics, like in the case of stroke lesions and white matter hyperintensities (WMH) of diverse natures. Given that stroke effects are present not only in the affected region, but also in unaffected tissue, we investigated the feasibility of 3D texture features from WMH, normal-appearing white matter and subcortical structures to differentiate individuals who had a lacunar or cortical stroke visible on conventional brain MRI (T1-weighted, T2-weighted and FLAIR images) from subjects who did not. Texture features were not useful to differentiate between post-acute cortical and lacunar strokes, but promising results were achieved for discerning between patients presenting an old stroke and normal-ageing patients who never had a stroke. / Ortiz Ramón, R. (2019). Radiomics for diagnosis and assessing brain diseases: an approach based on texture analysis on magnetic resonance imaging [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/119118 / TESIS
54

Machine Learning para predecir la morosidad en créditos MYPEs de la Caja Metropolitana de Lima

Alva Ranilla, Mayra Yessica, Tamashiro Wong, Keiko Cecilia January 2012 (has links)
Publicación a texto completo no autorizada por el autor / Propone el uso de una red neuronal (Perceptrón multicapa) para predecir el comportamiento de una MYPE respecto a la morosidad en el pago de sus créditos, permitiendo así anticipar y minimizar los efectos desfavorables en la eco nomía y gestión de la Caja Metropolitana de Lima. Se aplicó la metodología CRISP-DM para elaborar el modelo de la red neuronal. La implementación de la red se realizó utilizando el software WEKA como herramienta de análisis y procesamiento de datos. El sistema se desarrolló bajo la plataforma Java. En el software Weka se realizó el entrenamiento y validación de los datos, obteniéndose como resultado final de la validación del modelo de red neuronal una tasa de error de 1.25% / Tesis
55

Arquitectura de análisis de datos generados por el internet de las cosas IoT en tiempo real.

Sarabia Jácome, David Fernando 02 September 2020 (has links)
[ES] El Internet de las cosas (IoT, del inglés, \textit{Internet of Things}) está revolucionando la manera en que percibimos todo lo que nos rodea. La gran cantidad de objetos conectados a Internet diariamente revela el grado de aceptación de las tecnologías habilitadoras de IoT en los diferentes entornos de aplicación. De la misma manera, el gran volumen de datos generado por estos objetos, conocidos como dispositivos IoT, está llegando a valores inimaginables. Como resultado, las metodologías y técnicas tradicionales presentan limitaciones para la gestión de los datos recolectados por los dispositivos IoT. Este problema es conocido como Big Data y ha sido analizado en las dos últimas décadas en otro tipo de ámbitos (buscadores de páginas web, redes sociales, entre otros.). Sin embargo, la falta de conocimientos y estrategias claras para integrar las metodologías, técnicas y soluciones de Big Data con entornos de IoT está afectando directamente a los potenciales beneficios de IoT. La gestión del Big Data es uno de los desafíos que afrontan actualmente los entornos de IoT. La presente tesis doctoral especifica una arquitectura para la gestión del Big Data generado por entornos IoT. La arquitectura fue diseñada utilizando los requerimientos planteados en las recomendaciones de la Unión Internacional de Telecomunicaciones (ITU-T) y el Instituto Nacional de Estándares y Tecnologías (NIST) para la implementación de ecosistemas IoT y la interoperabilidad de \textit{frameworks} de Big Data, respectivamente. De esta manera, la arquitectura es lo suficientemente genérica para adaptarse a cualquier entorno IoT. La arquitectura Big Data es capaz de recopilar datos de dispositivos IoT, \textit{gateways} IoT, plataformas IoT y espacios de datos virtuales en entornos industriales. Además, la arquitectura brinda el soporte para la generación de servicios innovadores basados en las tendencias actuales en el área de la Inteligencia Artificial. Finalmente, la arquitectura aprovecha los recientes avances en la tecnología de \textit{fog computing} y los modelos de servicios de \textit{cloud computing} para implementar sus funcionalidades. La arquitectura presentada ha sido aplicada en tres casos de uso derivados de los proyectos Europeos ACTIVAGE y PixelPort financiados por la Unión Europea. El primero de ellos tiene el objetivo de monitorizar, controlar y guiar durante el tratamiento de la apnea del sueño en adultos mayores. El segundo persigue la detección temprana de caídas en adultos mayores basado en algoritmos de Inteligencia Artificial. Y el último tiene el objetivo de explotar el Big Data compartido en el espacio de datos industriales para entornos marítimos con el fin de proporcionar información relevante para la planificación de las operaciones de los buques de contenedores. / [EN] The Internet of Things (IoT) is revolutionizing the way we perceive everything around us. The large number of objects connected to the Internet reveals the degree of acceptance of IoT-enabling technologies in several domain applications. In the same way, the large volume of data generated by these objects, also known as IoT devices, is reaching unimaginable values. As a result, traditional methodologies and techniques are not capable of managing the large amount of data collected by IoT devices. This problem is known as Big Data, and it has been analyzed in the last two decades in other applications contexts (i.e., web page search engines, social networks, among others). However, the lack of clear knowledge and strategies to integrate Big Data methodologies, techniques and solutions with IoT environments is directly affecting the potential benefits of IoT. Nowadays, Big Data management is one of the challenges that IoT environments are facing. For this reason, this doctoral thesis specifies an architecture for the management of Big Data generated by IoT environments. The Big Data architecture proposed was designed using the requirements outlined in the recommendations of the International Telecommunication Union (ITU-T) and the National Institute of Standards and Technologies (NIST) for the implementation of IoT ecosystems and the interoperability of Big Data frameworks. In this way, the architecture is generic enough for adapting to any IoT environment. Big Data architecture is capable of collecting data from IoT devices, IoT gateways, IoT platforms, and the industrial virtual data spaces. Also, the architecture provides support for the generation of innovative services based on current trends in Artificial Intelligence. Finally, the architecture takes advantage of the recent advances in fog computing technology and the cloud computing model services for implementing its functionalities. The architecture presented has been applied in three use cases derived from the European ACTIVAGE and PixelPort projects funded by the European Union. The first of these uses cases aims to monitor, control, and guide during the treatment of sleep apnea in elderly. The second one pursues the early detection of the elderly's fall based on Artificial Intelligence algorithms. The last one has the objective of exploiting shared Big Data in industrial data space for maritime environments to provide relevant information for the planning of shipping container operations. / [CA] La Internet de les coses (IoT, del anglès, Internet of Things) està revolucionant la manera en que percebem tot el que ens rodeja. La gran quantitat d\textquotesingle objectes connectats diàriament a Internet revela el grau de acceptació de les tecnologies facilitadores de IoT en els diferents entorns de la aplicació. De la mateixa manera, el gran volum de dades generades per aquests objectes, coneguts com dispositius IoT, està arribant a valors inimaginables. Com a resultat, les metodologies i tècniques tradicionals presenten limitacions per a la gestió de les dades recol·lectades pels dispositius IoT. Aquest problema es conegut com a Big Data i ha sigut analitzat durant les dos últimes dècades en tot tipus d\textquotesingle àmbits (buscadors de pàgines web i xarxes socials entre altres). No obstant, la falta de coneixements i estratègies clares per a integrar les metodologies, tècniques i solucions de Big Data en entorns de IoT està afectant directament als potencials beneficis de IoT. La gestió del Big Data es un dels desafius que afronten actualment els entorns de IoT. Aquesta tesis doctoral especifica una arquitectura per a la gestió del Big Data generat pels entorns IoT. L\textquotesingle arquitectura ha sigut dissenyada utilitzant els requeriments plantejats en les recomanacions de la Unió Internacional de Telecomunicacions (ITU-T) i el Institut Nacional d\textquotesingle Estàndards i Tecnologies (NIST) per a la implementació d\textquotesingle ecosistemes IoT i la interoperabilitat de frameworks de Big Data. D\textquotesingle aquesta manera, l\textquotesingle arquitectura es lo suficientment genèrica per a adaptar-se a qualsevol entorn IoT. L\textquotesingle arquitectura Big Data es capaç de recopilar dades de dispositius IoT, gateways IoT, plataformes IoT i espais de dades virtuals en entorns industrials. Així mateix, l\textquotesingle arquitectura brinda el suport per a la generació de serveis innovadors basats en les tendències actuals en l\textquotesingle àrea de la Intel·ligència Artificial. Finalment, l\textquotesingle arquitectura aprofita els recents avanços en la tecnologia de \textit{fog computing} i els models de serveis de \textit{cloud computing} per a implementar les seues funcionalitats. L\textquotesingle arquitectura presentada ha sigut aplicada a tres casos d\textquotesingle usos derivats dels projectes europeus ACTIVAGE i PixelPort finançats per la Unió Europea. El primer d\textquotesingle ells té l\textquotesingle objectiu de monitoritzar, controlar i guiar durant el tractament de la apnea del somni en adults majors. El segon persegueix la detecció primerenca de caigudes en adults majors basat en algoritmes de Intel·ligència Artificial. I l\textquotesingle Últim té l\textquotesingle objectiu de explotar el Big Data compartint en l\textquotesingle espai de dades industrials per a entorns marítims amb el fi de proporcionar informació rellevant per a la planificació de les operacions dels vaixells de contenidors. / Al Estado Ecuatoriano y a la Secretaría de Educación Superior, Ciencia, Tecnología e Innovación (SENESCYT) por haber apoyado la realización de esta tesis doctoral a través de su programa de Becas. / Sarabia Jácome, DF. (2020). Arquitectura de análisis de datos generados por el internet de las cosas IoT en tiempo real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149398 / TESIS
56

La neurociencia como instrumento para medir la eficacia de la publicidad en medios audiovisuales

Ausin Azofra, Jose Manuel 24 January 2022 (has links)
Tesis por compendio / [ES] El proceso de evaluar la eficacia en publicidad es una tarea complicada. Para poder cumplir con los requisitos de los clientes, el publicista está acostumbrado a apoyarse en los criterios objetivos que garantizan las soluciones de la propuesta de comunicación. Así como los aspectos subjetivos del creativo, como la estética, la música, el argumento, y el formato, suelen ser abordados según un criterio creativo. El objetivo de este trabajo es proponer y evaluar experimentalmente una metodología que, mediante la combinación de las respuestas psicofisiológicas, los modelos de aprendizaje automático y las técnicas tradicionales permita cuantificar y predecir, de una forma científica y metódica, el impacto emocional y cognitivo de la publicidad audiovisual. Para ello han planteado 3 estudios experimentales que investigan diferentes características de la metodología propuesta: investigar la capacidad de medidas que provienen de la neurociencia para predecir la eficacia de la publicidad. El segundo plantea comparar el efecto de un nuevo tipo de publicidad más inmersiva de video 360º en frente de la publicidad audiovisual clásica en formato video estándar. Y el tercero la evaluación de la música en el contexto de la congruencia e incongruencia musical aplicado en los anuncios de TV. En cuanto al estudio del impacto de la música en los anuncios se investigó los resultados de las reacciones emocionales y cognitivas de los sujetos durante la exposición a anuncios de televisión con música congruente e incongruente. Se analizaron las señales de electroencefalografía (EEG) y eye tracking (ET) de un grupo de 90 personas que vieron 6 anuncios de televisión. Los resultados mostraron que la música congruente genera niveles más altos asimetría prefrontal cerebral asociada al procesamiento positivo emocional. Por otro lado, los anuncios incongruentes con música alegre mostraron mayor nivel de atención y carga cognitiva, generando mayor recuerdo que los anuncios con música congruente. El estudio demostró, por tanto, la validez del empleo de técnicas basadas neurofisiología para evaluar el impacto de la música en los anuncios. En el segundo estudio se comparó la eficacia de un nuevo tipo de publicidad audiovisual mediante video 360º en la que el usuario tiene una mayor capacidad de interacción frente anuncios audiovisuales clásicos (2D) en los que el visionado carece de interacción. Se comparo el impacto en términos de atención visual, reconocimiento de marca, compromiso y emociones. Las herramientas que se utilizaron fueron señales neurofisiológicas como la electroencefalografía, variabilidad cardiaca, seguimiento ocular y codificación facial. Se compararon cuatro anuncios existentes para bienes duraderos y bienes de consumo de alta rotación. En los resultados se determinó que la mirada depende del contenido del anuncio, que la atención visual es menor en los anuncios de 360º así como el reconocimiento del logo de la marca. Los productos duraderos son los que generan más emociones positivas y el nivel de engagement. Este tipo de metodología ayudara por tanto a cuantificar el mejor formato según la estrategia de contenidos. En el último estudio se investigó la efectividad de los nuevos canales digitales de comunicación (YouTube) para predecir el número de visitas mediante el uso de las redes neuronales artificiales y nuevas métricas basadas en neurociencia extraídas de la electroencefalografía, eye tracking y variabilidad cardíaca. Se descubrieron correlaciones significativas entre la respuesta psicofisiológica del sujeto y la efectividad de los anuncios ponderada como el número de visitas en el canal de YouTube que tubo a posteriori ese anuncio. Esta tesis proporciona por tanto contribuciones novedosas en cuanto al uso de la neurociencia y la inteligencia artificial en la investigación del impacto de la publicidad. / [CA] El procés d'avaluar l'eficàcia en publicitat és una tasca complicada. Per poder complir amb els requisits dels clients, el publicista està acostumat a recolzar-se en els criteris objectius que garanteixen les solucions de la proposta de comunicació. Així com els aspectes subjectius de l'creatiu, com l'estètica, la música, l'argument, el format, solen ser abordats segons un criteri creatiu. L'objectiu d'aquest treball és proposar i avaluar experimentalment una metodologia que, mitjançant la combinació de les eines, tecnologia de respostes psicofisiològiques, models d'aprenentatge automàtic i les tècniques tradicionals permeti obtenir, d'una manera científica i metòdica, la resposta dels usuaris davant els anuncis de TV per obtenir la informació necessària per aportar valor a la publicitat. Per a això es plantegen 3 estudis experimentals que investiguen diferents característiques de la metodologia proposada: investigar la capacitat de les eines de neurociència per predir l'eficàcia de la publicitat. El segon planteja mesurar l'eficàcia de Els anuncis segons el format de la publicitat, 2D vs 360º. I el tercer l'avaluació de la música en el context de la congruència i incongruència musical aplicat en els anuncis de TV. L'estudi on comparem l'eficàcia de la publicitat de 360º vs els anuncis estàtics (2D) en termes d'atenció visual, reconeixement de marca, compromís i emocions. Les eines que es van utilitzar van ser eines neurofisiològiques com l'electroencefalografia, variabilitat cardíaca seguiment ocular i codificació facial. Es van comparar quatre anuncis existents per a béns duradors i béns de consum d'alta rotació. En els resultats es mostra que la mirada depèn de l'contingut de l'anunci, l'atenció visual és menor en els anuncis de 360º així com el reconeixement de l'logotip de la marca. Els productes duradors són els que generen més emocions positives i el nivell d'engagement. El que comporta tenir-ho en compte per generar una estratègia de continguts que és el que es desenvolupa en el capítol 2. Pel que fa a l'estudi de l'impacte de la música en els anuncis es va investigar els resultats de les reaccions emocionals i cognitives dels subjectes durant l'exposició a anuncis de televisió amb música congruent i incongruent. Es van analitzar els senyals de electroencefalografia i eye tracking d'un grup de 90 persones que van veure 6 anuncis de televisió. Els resultats mostres que la música congruent genera nivells més alts asimetria prefrontal que representa el gust cerebral. Així com els anuncis incongruents amb música alegre tenen major nivell d'atenció i càrrega cognitiva, generant major recordo que els anuncis amb música congruent. Demostrant la validesa de les tècniques de neurofisiologia per avaluar l'impacte de la música en els anuncis. En l'últim estudi es va investigar l'efectivitat dels nous canals digitals de comunicació (YouTube) per predir mitjançant l'ús de les xarxes neuronals artificials i mètriques basades en neurociències com l'electroencefalografia, eye tracking, variabilitat cardíaca. Es va descobrir les correlacions significatives entre les mètriques de la neurociència i l'efectivitat dels anuncis i el nombre de visites al canal de Youtube. Creant una predicció d'un 82,9% la precisió mitjana i les visualitzacions en línia. Aquesta tesi proporciona contribucions noves a l'ús de la neurociència en la investigació de l'comportament humà, particularment en el consumidor i com li afecta la presa de decisions. La neurociència de el consumidor pot ajudar a l'aplicació de metodologies per a la valoració dels estímuls audiovisuals des d'una perspectiva més exacta i precisa. A més, creant models d'aprenentatge automàtic podem predir les respostes dels usuaris davant els diferents estímuls publicitaris creant campanyes més eficaces i econòmiques. Creiem fermament que el neuromarketing revolucionarà els mètodes d'avaluació de continguts audiovisuals i de presa de decisions. La present tesi té com a objectiu contribuir a aquest progrés. Els resultats d'aquesta tesi poden ser d'utilitat per als investigadors i publicistes interessats a conèixer millor el comportament de consumidor. / [EN] The process of evaluating advertising effectiveness is a complicated task. In order to meet customer requirements, the advertiser is used to relying on objective criteria that guarantee the solutions of the communication proposal. As well as the subjective aspects of the creative, such as aesthetics, music, plot, format, they are usually approached according to a creative criterion. The objective of this work is to propose and experimentally evaluate a methodology that, through the combination of tools, psychophysiological response technology, machine learning models and traditional techniques allows to obtain, in a scientific and methodical way, the response of users to TV commercials to obtain the information necessary to add value to the advertisement. For this, 3 experimental studies are proposed that investigate different characteristics of the proposed methodology: investigate the capacity of neuroscience tools to predict the effectiveness of advertising. The second proposes to measure the effectiveness of the ads according to the advertising format, 2D vs 360º. And the third is the evaluation of music in the context of musical congruence and incongruity applied in TV commercials. The study where we compared the effectiveness of 360º advertising vs static (2D) ads in terms of visual attention, brand recognition, engagement and emotions. The tools used were neurophysiological tools such as electroencephalography, cardiac variability, eye tracking, and facial coding. Four existing ads for durable goods and high-turnover consumer goods were compared. The results show that the look depends on the content of the ad, the visual attention is less in the 360º ads as well as the recognition of the brand logo. Durable products are the ones that generate the most positive emotions and the level of engagement. What it takes to take it into account to generate a content strategy. 2. Regarding the study of the impact of music on advertisements, the results of the emotional and cognitive reactions of the subjects during exposure to television advertisements with congruent and incongruous music were investigated. The electroencephalography and eye tracking signals of a group of 90 people who watched 6 television commercials were analysed. The results show that congruent music generates higher levels of prefrontal asymmetry than represents cerebral taste. Just as incongruous ads with happy music have a higher level of attention and cognitive load, generating greater memory than ads with congruent music. Demonstrating the validity of neurophysiology techniques to evaluate the impact of music on advertisements. The latest study investigated the effectiveness of new digital communication channels (YouTube) to predict through the use of artificial neural networks and metrics based on neurosciences such as electroencephalography, eye tracking, and cardiac variability. Significant correlations between neuroscience metrics and the effectiveness of ads and the number of views on the YouTube channel were discovered. Creating a prediction of 82.9% the average precision and online visualizations. This thesis provides novel contributions to the use of neuroscience in human behaviour research, particularly in the consumer and how it affects decision-making. Consumer neuroscience can help the application of methodologies for the assessment of audiovisual stimuli from a more accurate and precise perspective. In addition, by creating machine learning models, we can predict user responses to different advertising stimuli, creating more effective and economical campaigns. We firmly believe that neuromarketing will revolutionize audiovisual content evaluation and decision-making methods. The present thesis aims to contribute to this progress. / Ausin Azofra, JM. (2021). La neurociencia como instrumento para medir la eficacia de la publicidad en medios audiovisuales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/180237 / TESIS / Compendio
57

Aproximación de soluciones multimodales para aplicaciones Deep Learning

Ortega Bastida, Javier 30 September 2021 (has links)
Las oficinas de estadísticas de todo el mundo normalmente calculan y publican las estimaciones oficiales de indicadores macroeconómicos, como el Producto Interior Bruto (PIB), solo a nivel nacional y con una periodicidad anual. En algunos países se pueden encontrar también datos oficiales con frecuencias menores, como semestrales o trimestrales, y, en ocasiones, a niveles geográficos inferiores, aunque este último caso es menos común y cuando se publica suele realizarse únicamente con carácter anual. En países como España, el PIB nacional se comunica oficialmente con una regularidad trimestral, sin embargo, el PIB a nivel regional solamente se publica anualmente. Además de estos indicadores, no existen otras estimaciones oficiales, ya que por ejemplo no es posible conocer el PIB para zonas geográficas de niveles inferiores, como ciudades o provincias, o con periodicidades distintas. Sin embargo, para la actividad política y financiera resulta de gran interés conocer la evolución económica en frecuencias menores a un año o trimestre, ya que esto resulta en ocasiones decisivo para la toma de decisiones. De igual forma, conocer esta información para unidades geográficas más específicas, permitiría a los actores económicos potenciar sus inversiones y evitar las zonas de mayor riesgo. Esta disertación propone un enfoque multimodal basado en aprendizaje automático para la predicción del PIB a niveles geográficos distintos al nacional y con frecuencias temporales inferiores a la anual. La aproximación propuesta combina diferentes fuentes de información, como valores históricos y mensajes escritos en la red social Twitter. Para esto, se realiza un estudio exhaustivo donde distintas soluciones y metodologías son evaluadas para comparar su precisión frente a otras propuestas existentes, incluyendo técnicas de aprendizaje supervisado y no supervisado, de procesamiento del lenguaje natural y de análisis de secuencias. La multimodalidad permite mejorar la precisión de un modelo predictivo gracias a su capacidad de combinar información almacenada en distintas fuentes de datos (como son en nuestro caso los valores históricos del PIB y la información textual de los tweets). En un primer estudio sobre técnicas de multimodalidad analizaremos su aplicación a un entorno interactivo para el reconocimiento de objetos, donde imágenes y metadatos textuales y numéricos serán combinados. En base a las conclusiones extraídas de este estudio preliminar, se propuso una solución para la predicción del PIB regional a partir de la información económica extraída y filtrada de la red social Twitter. Esta solución se extendió posteriormente para combinar la información con valores históricos y, de esta forma, mejorar la precisión de las predicciones. Además, esta aproximación también nos permitió determinar las opiniones más y menos influyentes a la hora de realizar una predicción. Los resultados obtenidos se compararon con otros trabajos del estado del arte, demostrando una precisión superior al estimar la tendencia del valor del PIB. Además, se evaluó la validez de la propuesta para frecuencias temporales trimestrales y semanales, y para la predicción en distintas comunidades autónomas, incluyendo casos uniprovinciales y pluriprovinciales. Por último, y dadas las circunstancias en las que este estudio se realizó, el método propuesto fue evaluado en un entorno real condicionado por la pandemia de la COVID-19. Esto nos permitió analizar la capacidad del método en una situación extrema, en la que el desplome del PIB fue el mayor en casi un siglo, obteniendo unos resultados prometedores que no se podrían haber conseguido sin la combinación de diferentes fuentes de información.
58

Desarrollo de un software para la gestión de proyectos de desarrollo PM4R que permita automatizar la etapa de planificación para estimar tiempos a través de algoritmos de aprendizaje automático

Espinoza Muñoz, Jorge Enrique 20 June 2019 (has links)
La gestión de proyectos es un trabajo arduo que demanda de experiencia en el sector para la correcta definición de actividades y estimación de costos y tiempos de los proyectos. Es por ello que PM4R o gestión para resultados propone 7 etapas integradas. En este contexto, esta metodología es potente al permitir tener una ruta en cómo realizar una buena gestión, pero la habilidad de estimación aún queda definida por los gestores de proyectos, los que en base a su experiencia definen los tiempos de los proyectos y en consecuencia los costos. ¿Qué pasaría si este proceso estuviera automatizado? Ante esta pregunta, en la presente tesis se desarrolla un software para esta metodología. Sin embargo, como componente adicional se integran algoritmos de Machine Learning para permitir una estimación de la duración de los proyectos (tiempos) haciendo uso de la data histórica, para lo cual se procede a generar data en base a un conjunto de datos público del Banco Mundial. Además de que el diseño del software se basa en los lineamientos de Nielsen, lo que permitió la publicación de un artículo en el rubro de Interacción Humano-Computador. En base a lo anterior, los resultados muestran una herramienta potente que ha integrado la metodología en su totalidad (7 pasos) y además los resultados de la integración con Machine Learning son prometedores ya que tanto la clasificación como la regresión presentan valores de error acorde a la revisión del estado del arte y quedan pendientes trabajos como el tuneo de los algoritmos para la obtención de mejores resultados. Además de que a partir de la evaluación del incremento de los datos se observan resultados en los que, si bien es cierto se incrementa la precisión, también se incluye ruido o desbalanceo. Es un trade-off que el gestor de proyectos puede utilizar a su favor, ya que el software en cuestión es una herramienta de apoyo para los gestores, de tal manera que estos puedan tomar mejores decisiones en la etapa de planificación de nuevos proyectos.
59

Desarrollo de un sistema inteligente web basado en redes neuronales artificiales para la predicción del riesgo de mortalidad del COVID-19

Mondragon Silva, Sergio Alexander January 2023 (has links)
El presente trabajo de investigación surge ante el problema mundial de la pandemia del COVID-19, de tal manera, esta investigación tiene como objetivo general el implementar una solución basada en redes neuronales artificiales para predecir el riesgo de mortalidad de la COVID-19 en pacientes infectados, utilizando datos de una clínica de la ciudad de Chiclayo. Así, se decidió utilizar la metodología Scrum para la gestión del proyecto de investigación y para el modelado de la red neuronal artificial (RNA) se siguió la metodología de desarrollo utilizada en la investigación de I. Kaastra y M. Boyd incluyendo ciertas mejoras de la metodología utilizada en la investigación de Abdulaal A et al. En consecuencia, este proyecto generó una herramienta médica la cual es accesible a través de cualquier navegador web y cuenta con dos RNA implementadas las cuales tienen la capacidad de aprender de nuevos registros clínicos ingresados. La mejor RNA implementada tiene una exactitud del 82.72%, AUROC de 88.48%, desviación estándar de 0.0848 y un F1Score de 83.72%; además, este sistema web fue validado para el diagnóstico con las siguientes métricas médicas: 85.71% de sensibilidad. 79.48% de especificidad y un AUROC del 88.48%. Así pues, del desarrollo de esta herramienta se concluye que para identificar la correcta arquitectura e hiperparámetros se deben generar diferentes iteraciones de entrenamiento de la RNA; asimismo, en cada iteración se debe utilizar diferentes combinaciones de arquitectura e hiperparámetros calculando las métricas de exactitud, F-measure, AUROC y desviación estándar. Finalmente, se podrá elegir a la combinación con las mejores métricas.
60

Implementación de un sistema de información para la gestión del proceso de reclutamiento y selección de personal orientado a la asignación de puestos en pymes

Alvarez Rojas, Dominick Patricia 21 September 2023 (has links)
En la actualidad, las empresas buscan obtener el personal más idóneo para los puestos de trabajo a través del proceso de reclutamiento y selección. Esto debido a que una elección adecuada tiene un impacto positivo en las organizaciones para la consecución de sus objetivos. Además, en muchas ocasiones, se cuestionan si el personal ya existente dentro de la organización también puede calificar como potencial candidato. Ante ello, surge una necesidad por llevar el proceso de reclutamiento y selección de la manera más efectiva y eficiente posible; sin embargo, en la mayoría de medianas y pequeñas empresas carecen de herramientas tecnológicas que les permita hacer el uso adecuado de la información. Es por ello que, actualmente, el proceso de reclutamiento y selección en la mayoría de las pymes se gestiona con actividades manuales o con herramientas que almacenan la información del personal, pero no permiten estructurarla y obtener información necesaria y accesible para la organización. Esto se da porque la mayoría de herramientas actuales son utilizadas como un repositorio para los documentos e información del trabajador sin aprovecharla para la toma de decisiones dentro del proceso de reclutamiento y selección. Así mismo, se evidencia que en la mayoría de pymes no existen lineamientos formales para llevar a cabo el proceso de reclutamiento y selección, es por ello que procedimientos como la selección del personal se ejecutan en base a un conocimiento tácito. Como consecuencia, la data no se utiliza en su totalidad para obtener información enriquecedora para este proceso, además que genera un sentimiento de desconfianza por parte de los postulantes internos o externos sobre la objetividad de las actividades llevadas a cabo en el proceso. Es por todo lo expuesto que se evidencian los problemas y necesidades que surgen en el proceso reclutamiento y selección en las pequeñas y medianas empresas, por lo que se presenta en el presente documento el proyecto de tesis acerca la de implementación de un sistema de información para la gestión del proceso de reclutamiento y selección en pymes, la cual sigue lineamientos para el diseño centrado en el usuario así como la automatización de la selección personal implementando un algoritmo de machine learning basado en la experiencia, cursos y habilidades del personal o potencial candidato.

Page generated in 0.1146 seconds