• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 313
  • 108
  • 2
  • 2
  • 1
  • Tagged with
  • 778
  • 778
  • 215
  • 145
  • 144
  • 127
  • 126
  • 126
  • 126
  • 126
  • 111
  • 103
  • 98
  • 96
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
721

[pt] ANÁLISE DE MATURIDADE EM BUSINESS INTELLIGENCE COMO FATOR DE CRIAÇÃO DE VANTAGEM COMPETITIVA E MELHORIA DE PERFORMANCE: ESTUDO DE CASO EM UMA EMPRESA DO SETOR FARMACÊUTICO / [en] MATURITY ANALYSIS IN BUSINESS INTELLIGENCE AS A FACTOR CREATING COMPETITIVE ADVANTAGE AND PERFORMANCE IMPROVEMENT: CASE STUDY IN A COMPANY IN THE PHARMACEUTICAL SECTOR

GABRIEL LOURENCO S DOS SANTOS 25 May 2023 (has links)
[pt] O presente trabalho tem como objetivo analisar a percepção de uma amostra de funcionários, de diferentes departamentos e cargos, sobre o estágio de maturidade em Business Intelligence de uma empresa do setor farmacêutico. Posteriormente, pretende-se entender a relação entre a percepção de maturidade, e a percepção do potencial de criação de vantagem competitiva e melhoria na performance da empresa que a adoção de Business Intelligence pode trazer. Para atingir ao objetivo foram realizadas uma pesquisa via survey com 32 respondentes, para coletar sua percepção de maturidade da empresa em cinco dimensões de maturidade: Organização, Infraestrutura, Gestão de Dados, Análise e Governance a fim de enquadrar a empresa dentro de um estágio. Além disso, foram incluídas nos questionários perguntas relacionadas a percepção de criação de vantagem competitiva e melhoria de performance. A fim de entender melhor os resultados para posteriormente criar uma proposta de plano de melhoria para que a empresa avançasse no modelo, foram realizadas entrevistas em profundidade com quatro respondentes e uma análise de regressão com o objetivo de entender melhor a relação entre as variáveis. O trabalho delimitou-se em estudar a empresa no momento atual sem que fosse feito um acompanhamento da evolução ao longo do tempo, pesquisou apenas uma empresa do setor farmacêutico baseada no Brasil limitando comparações com benchmarkings entre países e setores. Além disso, o fato de o pesquisador conhecer e ser funcionário da mesma empresa dos respondentes pode ter gerado desconforto em parte deles, gerando possíveis vieses nas respostas. Com os resultados da pesquisa somados as melhores práticas de BI trazidas no referencial teórico, foi traçada uma proposta com um plano de melhoria que se implementado, acredita-se, que pode levar a empresa a avançar no estágio de maturidade. / [en] The objective of this work is to analyze the perception of a sample of employees, from different departments and positions, about the stage of maturity in Business Intelligence of a company in the pharmaceutical sector. Subsequently, we intend to understand the relationship between the perception of maturity and the perception of the potential for creating competitive advantage and improving the company s performance that the adoption of Business Intelligence can trace. To achieve the objective, a survey was carried out with 32 respondents, to collect their perception of the company s maturity in five dimensions of maturity: Organization, Infrastructure, Data Management, Analysis and Governance to frame the company within a stage. In addition, the questionnaires included questions related to the perception of creating competitive advantage and improving performance. In order to better understand the results to later create a better plan proposal for the company to move forward in the model, we conducted in-depth interviews with four respondents and a regression analysis in order to better understand the relationship between the variables. The work is limited to studying the company today without having followed the evolution over time, researching only one company in the pharmaceutical sector based in Brazil, limiting comparisons with benchmarking between countries and sectors. Also, the fact that the researcher knows and is an employee of the same company two interviewees could cause discomfort on their part, generating the possibility of viewing the answers. With the research results added to the best BI practices developed without theoretical reference, a proposal was elaborated with a better plan that has been imple mented, it is proven, that can lead the company to advance in its maturity stage.
722

[pt] ESTIMADOR INTELIGENTE DE BIOMASSA EM PASTOS USANDO ÍNDICES DE VEGETAÇÃO A PARTIR DE IMAGENS CAPTURADAS POR VANTS / [en] INTELLIGENT BIOMASS ESTIMATION IN PASTURES USING RGB-BASED VEGETATION INDICES FROM UAV IMAGERY

LUCIANA DOS SANTOS NETTO DOS REYS 11 August 2022 (has links)
[pt] O gerenciamento correto das pastagens em regiões agropecuárias tem papel fundamental na própria produção, na prevenção ao desperdício da biomassa vegetal e a liberação de gases de efeito estufa (GEE). Além disso, é necessário evitar o movimento inapropriado do rebanho entre pastos, pois este é um processo demorado e pode ser estressante para o animal. O sucesso desta gestão requer uma avaliação eficiente dos recursos da plantação. Os estudos desenvolvidos com esta finalidade tem relação direta com a estimativa da quantidade de biomassa em uma região específica da pastagem, pois, na prática, ela não é realizada de forma precisa, devido à dificuldade de medição em toda a área delimitada. Este trabalho tem como objetivo desenvolver uma metodologia de estimativa de biomassa de baixo custo, baseada em modelos de regressão que correlacionem os atributos de entrada mais relevantes para a aplicação com o real peso da plantação, medido em g/m2 . Para os atributos, foi medida a altura da grama forrageira e calculados os índices de vegetação baseados em RGB a partir de imagens de veículos aéreos não tripulados (VANTs). Como metodologia, utilizou-se regressões lineares, não lineares, redes neurais artificiais baseados em perceptrons de múltiplas camadas e a combinação de todos os modelos gerados (stacking ensemble). Foram alcançados resultados satisfatórios utilizando modelos de redes neurais com ainda duas camadas e com a metodologia de empilhamento de modelos, alcançando um RMSE de 31.76 g/m2 , MAPE de 13.35 por cento e R 2 de 0.9. Portanto, a metodologia proposta pode se tornar uma solução promissora e acessível para a estimativa de biomassa vegetal para uma gestão eficiente e sustentável do rebanho. / [en] The correct management of pastures in agricultural regions plays a fundamental role in the production itself, in the prevention of plant biomass waste and the release of greenhouse gases (GHG). In addition, it is necessary to avoid inappropriate movement of the herd between pastures, as this is a time-consuming process and can be stressful for the animal. The success of this management requires an efficient assessment of the plant resources. The studies developed for this purpose are directly related to the amount estimation of biomass in a specific region of the pasture, because, in practice, it is not carried out accurately, due to the difficulty of measurement throughout the field. This work aims to develop a low-cost biomass estimation methodology, based on regression models that correlate the most relevant input features for the application with the actual density of the plantation, measured in g/m2 . For the features, the height of the forage grass was measured and the vegetation indexes based on RGB were calculated from images of unmanned aerial vehicles (UAV). Linear, nonlinear regression (MNLR), artificial neural networks (ANN) based on multi-layer perceptron (MLP) and the combination of all models generated (stacking ensemble) were the methodologies tested in order to achieve the best correlation. Satisfactory results were achieved using models of neural networks with two layers and using stacking ensemble methodology, reaching a RMSE of 31.76 g/m2 , MAPE of 13.35 percent and R-Squared of 0.9. Therefore, the proposed methodology may become a promising and affordable solution for plant biomass estimation toward efficient and sustainable herd management.
723

[pt] OS IMPACTOS DA INTELIGÊNCIA ARTIFICIAL NO SISTEMA DE PRECEDENTES / [en] THE IMPACT OF ARTIFICIAL INTELLIGENCE IN THE PRECEDENTS SYSTEM

THIAGO LUIZ NOGUEIRA DA SILVA 04 August 2023 (has links)
[pt] O trabalho tem como objetivo analisar os modelos de aplicação tecnológica dos precedentes judiciais pelo STF, que possuem a intenção de automatizar o juízo de admissibilidade, e, verificar se tal tecnologia pode ser utilizada sem infringir os princípios constitucionais, especialmente o devido processo legal. O cerne do estudo está consubstanciado nas ferramentas de inteligência artificial que vem sendo utilizadas pelo Poder Judiciário com o objetivo de auxiliar a atividade jurisdicional a lidar como fenômeno da hiperjudicialização. Para tanto, apresentamos o sistema de precedentes do Código de Processo Civil de 2015 que tem como finalidade a garantia e aplicação dos princípios da isonomia e segurança jurídica, assim como diminuir o problema das ações repetitivas. Trabalhou-se também os sistemas de inteligência artificial utilizados, assim como os problemas mais relevantes que eles apresentam tais como, data sets viciados, opacidade algorítmica e discriminação racial e social. Abordou-se também a utilização do Sistema Victor pelo Supremo Tribunal Federal que tem como finalidade automatizar o juízo de admissibilidade dos recursos. Por fim, procurou-se avaliar de que modo as tecnologias podem contribuir para um mais eficaz processamento dos recursos, em especial no que diz respeito ao juízo de admissibilidade. / [en] The purpose of this study is to analyze the models of technological application of judicial precedents by the STF, which intend to automate the admissibility determination, and to determine whether such technology can be used without violating constitutional principles, particularly due process of law. The core of the study consists of the artificial intelligence tools utilized by the Judiciary to assist the judicial activity in dealing with the phenomenon of hyperjudicialization. Consequently, we present the precedent system of the Civil Procedure Code of 2015, which aims to ensure and apply the principles of isonomy and legal certainty, as well as reduce the problem of repetitive actions. In addition, the employed artificial intelligence systems and the most pertinent problems they present, such as biased data sets, algorithmic opacity, and racial and social discrimination, were examined. The Federal Supreme Court s use of the Victor System, which aims to automate the appeals admissibility determination, was also discussed. Lastly, an effort was made to evaluate how technologies can contribute to a more efficient appeals processing, particularly with regard to the admissibility determination.
724

[en] ENABLING DATA REGULATION EVALUATION THROUGH INTELLIGENT AND NORMATIVE MULTIAGENT SYSTEMS DESIGN / [pt] PERMITINDO A SIMULAÇÃO DE CENÁRIOS NA REGULAÇÃO DE DADOS ATRAVÉS DA APLICAÇÃO DE SISTEMAS MULTIAGENTES INTELIGENTES E NORMATIVOS

PAULO HENRIQUE CARDOSO ALVES 28 November 2023 (has links)
[pt] O compartilhamento e o gerenciamento de dados pessoais são atividades desafiadoras devido à grande quantidade de dados gerados, carregados e digitalizados por cidadãos para utilizar serviços, online ou não. Esse desafio afeta não apenas os cidadãos, mas também os controladores e processadores de dados, que são responsáveis pela segurança, privacidade, anonimato e uso de dados fundados em bases legais e no propósito inicial quando os dados foram solicitados. Nesse cenário, a proteção e regulamentação dedados entram em cena para organizar esse ambiente, propondo direitos e deveres aos agentes envolvidos. No entanto, cada país é livre para criar e empregar sua própria regulamentação de dados, como o GDPR na União Europeia e a LGPD no Brasil. Portanto, embora o objetivo seja proteger os cidadãos, as regulamentações podem apresentar regras diferentes com base em sua jurisdição. Nesse cenário, as ontologias surgem para identificar as entidades e relacionamentos e mostrá-los em um nível de abstração elevado, facilitando o alinhamento das ontologias com diferentes regulamentações. Para isso, desenvolvemos um meta modelo baseado em ontologias da GDPR para possibilitar a representação da LGPD com foco na base legal do consentimento. Além disso, propusemos o GoDReP (Geraçãod e Cenários de Regulamentação de Dados) para permitir que os atores representem a interpretação de sua legislação em um cenário de aplicação específico. Apresentamos então três cenários diferentes para exercitar a aplicação do GoDReP. Além disso, nesta tese, também propomos uma arquitetura de sistema multiagente normativo e inteligente (RegulAI) para representar os direitos e obrigações apresentados pela regulamentação de dados pessoais, bem como o processo de tomada de decisão dos agentes.Por fim, desenvolvemos um estudo de caso aplicando o RegulAI no cenário de open banking. / [en] Sharing and managing personal data are challenging due to the massive amount of data generated, uploaded, and digitalized, informed by data subjects to utilize services, online or not. This challenge disrespects not only the data subjects, but also data controllers and processors, which are responsible for security, privacy, anonymity, and data usage under the legal basis applied and the initial purpose when the data were required. In this scenario, data protection and regulation take place to organize this environment proposing rights and duties to the involved agents. However, each country is free to create and employ its data regulation, e.g., GDPR in European Union and LGPD in Brazil. Therefore, although the goal is to protect the data subjects, the regulations can present different rules based on their jurisdiction. In this scenario, ontologies emerge to identify the entities and relationships to show them at a high abstraction level, facilitating ontology alignment with different regulations. To do so, we developed a metamodel based on GDPR ontologies to enable the LGPD representation focused on the consent legal basis. Moreover, we proposed GoDReP (Generation of Data Regulation Plots) to allow actors to represent their law s interpretation in a specific application scenario. As a result, we set three scenarios to exercise the GoDReP application. Moreover, in this thesis, we also propose an intelligent normative multiagent system architecture (RegulAI) to represent the personal data regulation rights and obligations, as well as the agent s decision-making process. Finally, we developed a use case applying RegulAI in the open banking scenario.
725

Integración de argumentación rebatible y ontologías en el contexto de la web semántica : formalización y aplicaciones

Gómez, Sergio Alejandro 25 June 2009 (has links)
La World Wide Web actual está compuesta principalmente por documentos escritos para su presentación visual para usuarios humanos. Sin embargo, para obtener todo el potencial de la web es necesario que los programas de computadoras o agentes sean capaces de comprender la información presente en la web. En este sentido, la Web Semántica es una visión futura de la web donde la información tiene significado exacto, permitiendo así que las computadoras entiendan y razonen en base a la información hallada en la web. La Web Semántica propone resolver el problema de la asignación de semántica a los recursos web por medio de metadatos cuyo significado es dado a través de definiciones de ontologías, que son formalizaciones del conocimiento de un dominio de aplicación. El estándar del World Wide Web Consortium propone que las ontologías sean definidas en el lenguaje OWL, el cual se halla basado en las Lógicas para la Descripción. A pesar de que las definiciones de ontologías expresadas en Lógicas para la Descripción pueden ser procesadas por razonadores estándar, tales razonadores son incapaces de lidiar con ontologías inconsistentes. Los sistemas argumentativos constituyen una formalización del razonamiento rebatible donde se pone especial enfasis en la noción de argumento. Así, la construcción de argumentos permite que un agente obtenga conclusiones en presencia de información incompleta y potencialmente contradictoria. En particular, la Programación en Lógica Rebatible es un formalismo basado en la argumentación rebatible y la Programación en Lógica. En esta Disertación, la importancia de la definición de ontologías para poder llevar a cabo la realización de la iniciativa de la Web Semántica junto con la presencia de ontologías incompletas y potencialmente contradictorias motivó el desarrollo de un marco de razonamiento con las llamadas -ontologías. Investigaciones previas de otros autores, determinaron que un subconjunto de las Lógicas para la Descripción pueden ser traducidas efectivamente a un conjunto de la Programación en Lógica. Nuestra propuesta involucra asignar semántica a ontologías expresadas en Lógicas para la Descripción por medio de Programas Lógicos Rebatibles para lidiar con definiciones de ontologías inconsistentes en la Web Semántica. Esto es, dada una ontología OWL expresada en el lenguaje OWLDL, es posible construir una ontología DL equivalente expresada en las Lógicas para la Descripción. En el caso en que DL satisfaga ciertas restricciones, esta puede ser expresada como un programa DeLP P. Por lo tanto, dada una consulta acerca de la pertenencia de una instancia a a un cierto concepto C expresada con respecto a OWL, se realiza un análisis dialectico con respecto a P para determinar todas las razones a favor y en contra de la plausibilidad de la afirmación C(a). Por otro lado, la integración de datos es el problema de combinar datos residiendo en diferentes fuentes y el de proveer al usuario con una vista unificada de dichos datos. El problema de diseñar sistemas de integración de datos es particularmente importante en el contexto de aplicaciones en la Web Semántica donde las ontologías son desarrolladas independientemente unas de otras, y por esta razón pueden ser mutuamente inconsistentes. Dada una ontología, nos interesa conocer en que condiciones un individuo es una instancia de un cierto concepto. Como cuando se tienen varias ontologías, los mismos conceptos pueden tener nombres distintos para un mismo significado o aún nombres iguales para significados diferentes, para relacionar los conceptos entre dos ontologías diferentes se utilizaron reglas puente o de articulación. De esta manera, un concepto se corresponde a una vista sobre otros conceptos de otra ontología. Mostramos también bajo que condiciones la propuesta del razonamiento con -ontologías puede ser adaptada a los dos tipos de integración de ontologías global-as-view y local-as-view considerados en la literatura especializada. Además, analizamos las propiedades formales que se desprenden de este acercamiento novedoso al tratamiento de ontologías inconsistentes en la Web Semántica. Los principales resultados obtenidos son que, como la interpretación de -ontologías como Programas Lógicos Rebatibles es realizada a través de una función de transformación que preserva la semántica de las ontologías involucradas, los resultados obtenidos al realizar consultas son sensatos. También, mostramos que el operador presentado es además consistente y significativo. El acercamiento al razonamiento en presencia de ontologías inconsistentes brinda la posibilidad de abordar de una manera ecaz ciertos problemas de aplicacion del ámbito del comercio electrónico, donde el modelo de reglas de negocio puede ser especificado en términos de ontologías. Entonces, la capacidad de razonar frente a ontologías inconsistentes permite abordajes alternativos conceptualmente más claros, ya que es posible automatizar ciertas decisiones de negocios tomadas a la luz de un conjunto de reglas de negocio posiblemente inconsistentes expresadas como una o varias ontologías y tener un sistema capaz de brindar una explicación del porque se arribo a una conclusión determinada. En consecuencia, presentamos entonces una aplicación del razonamiento sobre ontologías inconsistentes por medio de la argumentación rebatible al modelado de formularios en la World Wide Web. La noción de los formularios como una manera de organizar y presentar datos ha sido utilizada desde el comienzo de la World Wide Web. Los formularios Web han evolucionado junto con el desarrollo de nuevos lenguajes de marcado, en los cuales es posible proveer guiones de validación como parte del código del formulario para verificar que el signifiado pretendido del formulario es correcto. Sin embargo, para el diseñador del formulario, parte de este significado pretendido frecuentemente involucra otras características que no son restricciones por sí mismas, sino más bien atributos emergentes del formulario, los cuales brindan conclusiones plausibles en el contexto de información incompleta y potencialmente contradictoria. Como el valor de tales atributos puede cambiar en presencia de nuevo conocimiento, los llamamos atributos rebatibles. Propusimos entonces extender los formularios web para incorporar atributos rebatibles como parte del conocimiento que puede ser codifiado por el diseñador del formulario, por medio de los llamados -formularios; dicho conocimiento puede ser especificado mediante un programa DeLP, y posteriormente, como una ontología expresada en Lógicas para la Descripción.
726

Aplicación de técnicas de Deep Learning para el reconocimiento de páginas Web y emociones faciales: Un estudio comparativo y experimental

Mejia-Escobar, Christian 07 March 2023 (has links)
El progreso de la Inteligencia Artificial (IA) ha sido notable en los últimos años. Los impresionantes avances en imitar las capacidades humanas por parte de las máquinas se deben especialmente al campo del Deep Learning (DL). Este paradigma evita el complejo diseño manual de características. En su lugar, los datos pasan directamente a un algoritmo, que aprende a extraer y representar características jerárquicamente en múltiples capas a medida que aprende a resolver una tarea. Esto ha demostrado ser ideal para problemas relacionados con el mundo visual. Una solución de DL comprende datos y un modelo. La mayor parte de la investigación actual se centra en los modelos, en busca de mejores algoritmos. Sin embargo, aunque se prueben diferentes arquitecturas y configuraciones, difícilmente mejorará el rendimiento si los datos no son de buena calidad. Son escasos los estudios que se centran en mejorar los datos, pese a que constituyen el principal recurso para el aprendizaje automático. La recolección y el etiquetado de extensos datasets de imágenes consumen mucho tiempo, esfuerzo e introducen errores. La mala clasificación, la presencia de imágenes irrelevantes, el desequilibrio de las clases y la falta de representatividad del mundo real son problemas ampliamente conocidos que afectan el rendimiento de los modelos en escenarios prácticos. Nuestra propuesta enfrenta estos problemas a través de un enfoque data-centric. A través de la ingeniería del dataset original utilizando técnicas de DL, lo hacemos más adecuado para entrenar un modelo con mejor rendimiento y generalización en escenarios reales. Para demostrar esta hipótesis, consideramos dos casos prácticos que se han convertido en temas de creciente interés para la investigación. Por una parte, Internet es la plataforma mundial de comunicación y la Web es la principal fuente de información para las actividades humanas. Las páginas Web crecen a cada segundo y son cada vez más sofisticadas. Para organizar este complejo y vasto contenido, la clasificación es la técnica básica. El aspecto visual de una página Web puede ser una alternativa al análisis textual del código para distinguir entre categorías. Abordamos el reconocimiento y la clasificación de páginas Web creando un dataset de capturas de pantalla apropiado desde cero. Por otro lado, aunque los avances de la IA son significativos en el aspecto cognitivo, la parte emocional de las personas es un desafío. La expresión facial es la mejor evidencia para manifestar y transmitir nuestras emociones. Aunque algunos datasets de imágenes faciales existen para entrenar modelos de DL, no ha sido posible alcanzar el alto rendimiento en entornos controlados utilizando datasets in-the-lab. Abordamos el reconocimiento y la clasificación de emociones humanas mediante la combinación de varios datasets in-the wild de imágenes faciales. Estas dos problemáticas plantean situaciones distintas y requieren de imágenes con contenido muy diferente, por lo que hemos diseñado un método de refinamiento del dataset según el caso de estudio. En el primer caso, implementamos un modelo de DL para clasificar páginas Web en determinadas categorías utilizando únicamente capturas de pantalla, donde los resultados demostraron un problema multiclase muy difícil. Tratamos el mismo problema con la estrategia One vs. Rest y mejoramos el dataset mediante reclasificación, detección de imágenes irrelevantes, equilibrio y representatividad, además de utilizar técnicas de regularización y un nuevo mecanismo de predicción con los clasificadores binarios. Estos clasificadores operando por separado mejoran el rendimiento, en promedio incrementan un 26.29% la precisión de validación y disminuyen un 42.30% el sobreajuste, mostrando importantes mejoras respecto al clasificador múltiple que opera con todas las categorías juntas. Utilizando el nuevo modelo, hemos desarrollado un sistema en línea para clasificar páginas Web que puede ayudar a diseñadores, propietarios de sitios Web, Webmasters y usuarios en general. En el segundo caso, la estrategia consiste en refinar progresivamente el dataset de imágenes faciales mediante varios entrenamientos sucesivos de un modelo de red convolucional. En cada entrenamiento, se utilizan las imágenes faciales correspondientes a las predicciones correctas del entrenamiento anterior, lo que permite al modelo captar más características distintivas de cada clase de emoción. Tras el último entrenamiento, el modelo realiza una reclasificación automática de todo el dataset. Este proceso también nos permite detectar las imágenes irrelevantes, pero nuestro propósito es mejorar el dataset sin modificar, borrar o aumentar las imágenes, a diferencia de otros trabajos similares. Los resultados experimentales en tres datasets representativos demostraron la eficacia del método propuesto, mejorando la precisión de validación en un 20.45%, 14.47% y 39.66%, para FER2013, NHFI y AffectNet, respectivamente. Las tasas de reconocimiento en las versiones reclasificadas de estos datasets son del 86.71%, el 70.44% y el 89.17%, que alcanzan el estado del arte. Combinamos estas versiones mejor clasificadas para aumentar el número de imágenes y enriquecer la diversidad de personas, gestos y atributos de resolución, color, fondo, iluminación y formato de imagen. El dataset resultante se utiliza para entrenar un modelo más general. Frente a la necesidad de métricas más realistas de la generalización de los modelos, creamos un dataset evaluador combinado, equilibrado, imparcial y bien etiquetado. Para tal fin, organizamos este dataset en categorías de género, edad y etnia. Utilizando un predictor de estas características representativas de la población, podemos seleccionar el mismo número de imágenes y mediante el exitoso modelo Stable Diffusion es posible generar las imágenes faciales necesarias para equilibrar las categorías creadas a partir de las mencionadas características. Los experimentos single-dataset y cross-dataset indican que el modelo entrenado en el dataset combinado mejora la generalización de los modelos entrenados individualmente en FER2013, NHFI y AffectNet en un 13.93%, 24.17% y 7.45%, respectivamente. Desarrollamos un sistema en línea de reconocimiento de emociones que aprovecha el modelo más genérico obtenido del dataset combinado. Por último, la buena calidad de las imágenes faciales sintéticas y la reducción de tiempo conseguida con el método generativo nos motivan para crear el primer y mayor dataset artificial de emociones categóricas. Este producto de libre acceso puede complementar los datasets reales, que son difíciles de recopilar, etiquetar, equilibrar, controlar las características y proteger la identidad de las personas.
727

[pt] GERAÇÃO DE DESCRIÇÕES DE PRODUTOS A PARTIR DE AVALIAÇÕES DE USUÁRIOS USANDO UM LLM / [en] PRODUCT DESCRIPTION GENERATION FROM USER REVIEWS USING A LLM

BRUNO FREDERICO MACIEL GUTIERREZ 04 June 2024 (has links)
[pt] No contexto de comércio eletrônico, descrições de produtos exercem grande influência na experiência de compra. Descrições bem feitas devem idealmente informar um potencial consumidor sobre detalhes relevantes do produto, esclarecendo potenciais dúvidas e facilitando a compra. Gerar boas descrições, entretanto, é uma atividade custosa, que tradicionalmente exige esforço humano. Ao mesmo tempo, existe uma grande quantidade de produtos sendo lançados a cada dia. Nesse contexto, este trabalho apresenta uma nova metodologia para a geração automatizada de descrições de produtos, usando as avaliações deixadas por usuários como fonte de informações. O método proposto é composto por três etapas: (i) a extração de sentenças adequadas para uma descrição a partir das avaliações (ii) a seleção de sentenças dentre as candidatas (iii) a geração da descrição de produto a partir das sentenças selecionadas usando um Large Language Model (LLM) de forma zero-shot. Avaliamos a qualidade das descrições geradas pelo nosso método comparando-as com descrições de produto reais postadas pelos próprios anunciantes. Nessa avaliação, contamos com a colaboração de 30 avaliadores, e verificamos que nossas descrições são preferidas mais vezes do que as descrições originais, sendo consideradas mais informativas, legíveis e relevantes. Além disso, nessa mesma avaliação replicamos um método da literatura recente e executamos um teste estatístico comparando seus resultados com o nosso método, e dessa comparação verificamos que nosso método gera descrições mais informativas e preferidas no geral. / [en] In the context of e-commerce, product descriptions have a great influence on the shopping experience. Well-made descriptions should ideally inform a potential consumer about relevant product details, clarifying potential doubt sand facilitating the purchase. Generating good descriptions, however, is a costly activity, which traditionally requires human effort. At the same time, there are a large number of products being launched every day. In this context, this work presents a new methodology for the automated generation of product descriptions, using reviews left by users as a source of information. The proposed method consists of three steps: (i) the extraction of suitable sentences for a description from the reviews (ii) the selection of sentences among the candidates (iii) the generation of the product description from the selected sentences using a Large Language Model (LLM) in a zero-shot way. We evaluate the quality of descriptions generated by our method by comparing them to real product descriptions posted by sellers themselves. In this evaluation, we had the collaboration of 30 evaluators, and we verified that our descriptions are preferred more often than the original descriptions, being considered more informative, readable and relevant. Furthermore, in this same evaluation we replicated a method from recent literature and performed a statistical test comparing its results with our method, and from this comparison we verified that our method generates more informative and preferred descriptions overall.
728

Especificación OWL de una ontología para teleeducación en WEB semántica

Romero Llop, Roberto 06 May 2008 (has links)
Debido al gran desarrollo de la World Wide Web, tanto en cantidad de contenidos y nodos como en velocidades de acceso, aparecen por parte de la comunidad científico-técnica propuestas de utilización de la misma con objetivos más ambiciosos que la mera descarga de ficheros para ser presentados al usuario. Con esa finalidad se desarrolla la Web Semántica, sistema que pretende introducir información entendible por Agentes Inteligentes, permitiendo de este modo que estos Agentes puedan aumentar sus bases de conocimiento y realizar inferencias que faciliten procesos realizados actualmente de forma manual por los usuarios. De esta forma surgen los lenguajes ontológicos para la web, y en concreto el lenguaje recomendado por la World Wide Web Consortium (W3C) denominado Web Ontology Language (OWL), así como razonadores relacionados como FACT++, Racer y Pellet. Además, con el objetivo de aprovechar el potencial de la web, se han ido generando gran cantidad de contenidos educativos, que debido a los altos costes de producción generan una necesidad de potenciar la reutilización de dichos contenidos. Aparece en este caso el concepto de objeto educativo, que es susceptible de ser reaprovechado para otras experiencias de aprendizaje, con alguna modificación o sin modificación alguna, generando la denominada interoperabilidad de objetos educativos. El presente trabajo pretende potenciar esta interoperabilidad de objetos educativos. Para ello se especifica una ontología completa para teleeducación, basada en la lógica descriptiva y desarrollada en el lenguaje OWL, para que pueda ser utilizada por medio de la Web Semántica. Se estudian, desarrollan e implementan dentro de esta ontología conceptos relacionados con la interacción de los distintos agentes que intervienen en una experiencia de aprendizaje a través de la web. La ontología presentada va además acompañada de una especificación de arquitectura de pares o Peer to Peer (P2P) basada en las arquitecturas de tablas de búsqueda distribuidas (DHTs), que denominaremos DHT Semántica. La DHT Semántica está diseñada para permitir la explotación por parte de Agentes Inteligentes de la ontología especificada, con una alta tolerancia a fallos en nodos de la arquitectura. Estos Agentes asisten en la búsqueda de objetos educativos más allá de la búsqueda por palabras claves. Finalmente, tanto la ontología como la arquitectura se validan utilizando un conjunto de experiencias educativas on-line reales. / Romero Llop, R. (2007). Especificación OWL de una ontología para teleeducación en WEB semántica [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1828
729

Computación de altas prestaciones sobre entornos grid en aplicaciones biomédicas: simulación de la actividad eléctrica cardiaca y diseño de proteínas

Moltó Martínez, Germán 06 May 2008 (has links)
Los importantes avances en la investigación, de numerosas áreas de conocimiento, han venido propiciados por una mejora en las estrategias de computación empleadas. A modo de ejemplo, la Computación de Altas Prestaciones permite la utilización colaborativa de múltiples procesadores para acelerar la resolución de problemas científicos, e incluso abordar problemas de mayor dimensión. Sin embargo, existen diversas aplicaciones cuyos requisitos computacionales pueden llegar a exceder la capacidad de cómputo de una única organización. En este sentido, los recientes incrementos en el ancho de banda de las redes de comunicaciones han propiciado la idea de unir recursos computacionales geográficamente distribuidos, proporcionando una infraestructura global de computación conocida como el Grid. En esta tesis se combina la Computación de Altas Prestaciones y la Computación en Grid con el objetivo de acelerar la ejecución de aplicaciones científicas, y permitir la resolución de problemas que no pueden ser abordados, en tiempo razonable, con los recursos de una sola organización. Para ello se ha desarrollado un sistema que ofrece una capa de abstracción que simplifica la ejecución de aplicaciones científicas generales sobre infraestructuras Grid. Este sistema, denominado GMarte, ofrece funcionalidad de metaplanificación de tareas para la ejecución concurrente de aplicaciones paralelas sobre recursos basados en Globus Toolkit, el software estándar en Grids computacionales. Posteriormente, y de acuerdo a la tendencia actual hacia las arquitecturas software orientadas a servicios, se ha construido un servicio Grid de metaplanificación genérico, interoperable y basado en tecnologías estándar. Este servicio Grid aporta funcionalidad de metaplanificador a múltiples clientes, que interactúan con él por medio de herramientas gráficas de alto nivel, utilizando mecanismos de seguridad para la protección de datos. De esta manera se consigue simplificar y potenciar la utilización de las te / Moltó Martínez, G. (2007). Computación de altas prestaciones sobre entornos grid en aplicaciones biomédicas: simulación de la actividad eléctrica cardiaca y diseño de proteínas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1831
730

Aportaciones al diagnóstico de cáncer asistido por ordenador

Llobet Azpitarte, Rafael 06 May 2008 (has links)
Para diagnosticar un cáncer se realiza, entre otras pruebas, algún test de imagen, como puede ser una radiografía, ecografía o resonancia magnética. Mediante estos tests pueden detectarse zonas con alta sospecha tumoral, cuyo diagnóstico debe confirmase finalmente mediante la realización de una biopsia. Este tipo de imágenes, sin embargo, no son fáciles de interpretar, lo que provoca que el profesional encargado de analizarlas, a pesar de su experiencia, no sea capaz de detectar en ellas un porcentaje importante de tumores (falsos negativos). Una posibilidad para mejorar el diagnóstico y disminuir el número de falsos negativos consiste en utilizar sistemas de diagnóstico asistido por ordenador o computer-aided diagnosis (CAD). Un sistema de CAD analiza la imagen médica y trata de detectar zonas sospechosas de contener alguna anomalía. Estas zonas son marcadas sobre la propia imagen con un doble objetivo: llamar la atención del profesional encargado de analizarla hacia la zona sospechosa y aportar una segunda opinión respecto al diagnóstico. En esta tesis se presentan y evaluan diversas técnicas de visión por computador y reconocimiento de formas orientadas a la detección de tumores en imágenes médicas, con el objetivo de diseñar sistemas de CAD que permitan un mejor diagnóstico. El trabajo se ha centrado en el diagnóstico de cáncer de próstata a partir de imágenes de ecografía, y en el diagnóstico de cáncer de mama a partir de imágenes de radiografía. Se han evaluado diversos métodos de extracción de características basados en la intensidad, frecuencia, texturas o en gradientes. En la etapa de clasificación se ha utilizado un clasificador no paramétrico basado en distancias (k-vecinos más cercanos) y otro paramétrico basado en modelos de Markov. A lo largo del trabajo se evidencian las distintas problemáticas que surgen en este tipode tareas y se proponen soluciones a cada una de ellas. El diagnóstico de cáncer de próstata asistido por ordenador es una tarea extrema / Llobet Azpitarte, R. (2006). Aportaciones al diagnóstico de cáncer asistido por ordenador [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1862

Page generated in 0.0989 seconds