Spelling suggestions: "subject:"kda""
21 |
Estudio de Metodologías para el Seguimiento de Modelos de Credit Scoring Utilizando Regresión LogísticaTolvett Sepúlveda, Carlos Felipe January 2011 (has links)
No description available.
|
22 |
Mejoramiento de una metodología para la identificación de website keyobject mediante la aplicación de tecnologías eye tracking, análisis de dilatación pupilar y algoritmos de web miningMartínez Azocar, Gustavo Adolfo January 2013 (has links)
Ingeniero Civil Industrial / El crecimiento acelerado de internet ha creado un aumento sostenido de los sitios web para todo tipo de empresas, organizaciones y particulares, provocando un nivel de oferta inmensamente alto. Estos sitios comienzan cada vez más a ser un importante canal tanto de comunicación directa con el cliente como de ventas, por lo que se hace necesario tratar de generar estrategias que permitan atraer a más usuarios al sitio y además hacer que los actuales usuarios continúen utilizándolo. Esto lleva a preguntarse qué tipo de información resulta de utilidad para el usuario final y como poder identificar esa información.
Anteriormente se ha tratado de abordar este problema mediante técnica de web mining a las áreas de contenido, estructuras y usabilidad de un sitio web, de modo de poder encontrar patrones que permitan generar información y conocimiento sobre estos datos. Estos a su vez permitirían tomar mejores decisiones respecto de la estructura y contenido de los sitios web.
Sin embargo este tipo de técnicas incluía la conjunción de datos objetivos (web logs) con datos subjetivos (encuestas y focus group principalmente), los cuales poseen una alta variabilidad tanto personal como interpersonal. Esto provoca que el análisis posterior de los datos pueda contener errores, lo que redunda en peores decisiones.
Para resolver en cierta manera eso, este proyecto de memoria desarrolló algoritmos de web mining que incluyen análisis de exploración visual y neurodatos. Al ser ambas fuentes de datos objetivas, se elimina en cierta parte la variabilidad de los resultados posteriores, con la consecuente mejora en las decisiones a tomar.
El resultado principal de este proyecto son algoritmos de web mining y modelos de comportamiento del usuario que incluyen información de análisis de exploración visual y datos obtenidos a través de ténicas de neurociencia. Se incluyen también una lsita de website keyobjects encontrados en la página de prueba para este proyecto.
Se incluyen además una revisión general acerca de los principales temas sobre los que el proyecto se basa: la web e internet, el proceso KDD, Web Mining, sistemas de eye tracking y website keyobjects. Por otra parte se especificaron los alcances del proyecto de memoria, tanto técnicos como de investigación.
Se concluye que el resultado del trabajo fue exitoso, incluso siendo el resultado de los algoritmos similares a la metodología previa. Sin embargo se abre un nuevo camino en cuanto al análisis de sitio dadas las relaciones encontradas entre el comportamiento pupilar y el análisis del sitio. Son incluidas ciertas consideraciones y recomendaciones para continuar y mejorar este trabajo.
|
23 |
Modelo de detección de fraude en clientes del servicio de agua potable de una empresa sanitariaPatiño Espinoza, Victoria Yazmín del Rosario January 2014 (has links)
Ingeniera Civil Industrial / Aguas Andinas corresponde a la empresa sanitaria más grande del país, con alrededor de 1,8MM de clientes en la Región Metropolitana y una facturación anual de 509MM de m3 de agua potable, equivalente aproximadamente a $341MMM.
Todas las empresas sanitarias presentan cierto porcentaje de agua no facturada, vale decir, aquella agua potable que se produce, pero no logra cobrarse al consumidor final. Este índice es de alrededor del 30% y es explicado por 3 factores: pérdida técnica, pérdida por micromedición y pérdida por uso irregular. El presente trabajo de memoria pretende encargarse del tercer factor, relativo al agua no facturada por intervenciones que realizan las personas en sus medidores o red de agua potable, con el objeto de disminuir la lectura de m3. Este punto es el causante de una pérdida mensual estimada de 700.000 m3, lo que en dinero se traduce en $468MM.
Hasta ahora, la empresa ha utilizado ciertos criterios para detectar usuarios irregulares, como verificar cuáles de los clientes previamente visitados por personal técnico ha presentado una baja en su consumo (pues se sabe que algunos trabajadores gasfiteros ofrecen intervenir el medidor) o comprobar denuncias hechas por los clientes. Mas, se desaprovecha un sinfín de información con la que se cuenta y que podría aportar a una mayor detección de ilícitos, mejorándose la actual tasa de detección del 15%. Se tiene por cada 1% de mejora en dicha tasa aumenta la recaudación en $6MM.
El eje del trabajo lo constituye la metodología KDD, tendiente a extraer patrones útiles y coherentes de la información que se posee. Es así como se buscó obtener un modelo que señalara la probabilidad que tiene cada cliente de ser un irregular, con la mayor certeza posible, para lo cual se trabajó con datos de clientes irregulares y no irregulares, construyendo una base a la que se le aplicó 3 modelos de aprendizaje supervisado: regresión logística binaria, árbol de decisión CHAID y red neuronal, definiéndose el mejor modelo en base a los costos asociados a los errores tipo I y II.
El mejor método resultó ser el árbol de decisión, con la eficacia más alta igual a 75%, lo que conllevaba al costo por error más bajo. A la vez su eficiencia fue de 81,2%, por lo que en un escenario conservador, si se considera que la tasa de detección aumente de un 15% actual a un 40% con el nuevo método, se está ante una recuperación extra mensual de $150MM.
Finalmente, junto con la aplicación del modelo resultante de este trabajo se sugiere diseñar una estrategia orientada a mejorar la actual tasa de regularización del 55%, considerada baja, lo que aumentaría aún más la recuperación monetaria. Además se debe tener presente que este tipo de modelos posee un determinado ciclo de vida, vale decir, después de cierto tiempo de aplicación es altamente probable que la eficacia y eficiencia comiencen a decaer debido a cambios que vaya experimentando el universo bajo estudio. Por ello se recomienda retroalimentar cada cierto tiempo el modelo, utilizando toda la data que se vaya recolectando, de modo de mantener su calidad.
|
24 |
Estudio de la relación entre neurodatos, dilatación pupilar y emocionalidad basado en técnicas de minería de datosAracena Cornejo, Claudio Felipe January 2014 (has links)
Ingeniero Civil Industrial / El presente trabajo de título tiene por objetivo caracterizar las relaciones cuantitativas y cualitativas entre dilatación pupilar y emocionalidad del sujeto mediante técnicas de minería de datos como apoyo a la metodología de identificación de Website Keyobjects. Además se introduce el análisis de neurodatos como una posible medida de la emoción de los sujetos de estudio. Los objetivos específicos plantean investigar el estado del arte de las distintas variables de estudio, diseñar e implementar experimentos orientados a descubrir la posible relación, aplicar proceso de descubrimiento de conocimiento y finalmente concluir con respecto a la hipótesis de investigación.
El trabajo de título está inmerso en el proyecto FONDEF titulado Plataforma informática basada en web-intelligence y herramientas de análisis de exploración visual para la mejora de la estructura y contenido de sitios web (AKORI: Advanced Kernel for Ocular Research and web Intelligence), proyecto compartido entre el Laboratorio de Neurosistemas y el Departamento de Ingeniería Industrial de la Universidad de Chile.
La justificación del trabajo se basa en la creciente necesidad de entender la experiencia del usuario dentro de los sitios web con el fin de utilizar las mejores prácticas en la construcción de los mismos. Hasta el momento, la metodología del profesor Juan Velásquez permite localizar los Website Keyobjects, elementos principales de un sitio web, mediante el uso de técnicas de eye-tracking y minería de datos. Sin embargo, cuando un usuario fija su mirada en algún elemento, no se puede establecer una relación de gusto o disgusto frente al estímulo, por lo que se hace útil caracterizar estas relaciones subyacentes.
Para la obtención de datos se realizaron 10 registros del experimento diseñado. El experimento consistió en que los sujetos eran expuestos a 180 imágenes con distinto contenido emocional, mientras eran registradas su actividad bioeléctrica cerebral (EEG), dilatación pupilar y la calificaciones que los usuarios otorgaban a las imágenes.
En el análisis de los datos obtenidos fue llevado a cabo mediante el proceso KDD. Para la actividad bioeléctrica cerebral se obtuvieron resultados negativos, ya que no se logró establecer este parámetro como medida de emocionalidad. Tampoco fue posible obtener un alto porcentaje de precisión en la clasificación de emocionalidad en base a los neurodatos. Para la dilatación pupilar, si bien se registró un comportamiento similar al de estudios anteriores, no se logró establecer un clasificador de emociones según el comportamiento de la dilatación pupilar que superará el 50\% de precisión, independiente del algoritmo utilizado.
Si bien no se logró demostrar la hipótesis de investigación, se vislumbran ciertos lineamientos para futuras investigaciones. Se considera el análisis de EEG como una fuente de información potente para el estudio del comportamiento del usuario en la web. Por lo mismo, se propone realizar una integración de análisis de neurodatos a la metodología de identificación de Website Keyobjects.
|
25 |
Optimización en la negociación de campañas publicitarias en InternetHaye León, Cristóbal Elías January 2016 (has links)
Ingeniero Civil Industrial / La publicidad toma una innumerable cantidad de formas y tamaños, pasando por medios convencionales como la calle y la televisión. Hoy en día existe una fuerte tendencia en el crecimiento de publicidad en la internet por diversas razones, en particular porque es un medio que llega a una gran masa de personas con un costo relativo por persona mucho menor que la televisión o prensa escrita.
La relevancia del impacto del internet en la publicidad se ve fuertemente reflejada en un aumento desde 0% en el 2002 hasta un 10% en el 2014 en el gasto total en publicidad en Chile, llegando a órdenes de magnitud de 2.000 MM de pesos chilenos. Es por esta razón que nace la necesidad de optimizar la manera de invertir el dinero con el fin de tener mejores resultados en las campañas publicitarias.
El cliente del trabajo de titulo es una empresa que provee el servicio de compra programática, la cual consiste en la compra de espacios publicitarios en la web, a los clientes de la empresa de publicidad Grupo Havas, que estén interesados en hacer avisaje a través de internet. La empresa Affiperf implementa, para estos clientes, campañas publicitarias en internet a través de plataformas diseñadas para participar en la compra en tiempo real de espacios publicitarios obteniendo un margen en la compra.
Las campañas publicitarias en la web tienen la particularidad de que es posible medir el rendimiento de las campañas en base a distintas métricas, entre las cuales están el costo por mil impresiones (CPM), costo por realizar un clic (CPC) y el ratio clics e impresiones (CTR). Por esto, cada avisaje tiene un objetivo concreto basado en estos indicadores los cuales pretenden distribuir de la mejor manera posible la compra de espacios publicitarios en internet para tener un mejor retorno sobre la inversión en base a estas métricas.
Los costos incurridos en la elaboración de sus servicios es significativo y no siempre se logran los objetivos de las campañas debido a que asume la variabilidad del comportamiento del usuario de internet. Esto da pie al caso de estudio, el cual consiste en proponer un modelo de regresión basado en los datos históricos de la empresa proveedora del servicio de compra programática, para optimizar negociaciones sobre las métricas de rendimiento en las campañas publicitarias con los avisadores.
Los resultados del modelo propuesto presentan una mejor predicción del CTR de un 3,8% por sobre lo realizado por Affiperf lo que tiene un valor estimado de 124,3 [UM] en la negociación para la realización de campañas publicitarias. Por otro lado, la predicción del CPC no obtiene resultados debido al alto nivel de variabilidad del indicador.
|
26 |
Prediction of financial product acquisition for Peruvian savings and credit associationsVargas, Emmanuel Roque, Cadillo Montesinos, Ricardo, Mauricio, David 30 September 2020 (has links)
El texto completo de este trabajo no está disponible en el Repositorio Académico UPC por restricciones de la casa editorial donde ha sido publicado. / Savings and credit cooperatives in Peru are of great importance for their participation in the economy, reaching in 2019, deposits and deposits and assets of more than 2,890,191,000. However, they do not invest in predictive technologies to identify customers with a higher probability of purchasing a financial product, making marketing campaigns unproductive. In this work, a model based on machine learning is proposed to identify the clients who are most likely to acquire a financial product for Peruvian savings and credit cooperatives. The model was implemented using IBM SPSS Modeler for predictive analysis and tests were performed on 40,000 records on 10,000 clients, obtaining 91.25% accuracy on data not used in training. / Revisión por pares
|
27 |
Arcabouço teórico para mineração de dados de defeitos construtivos em modelos BIM. / Theoretical framework for data mining of construction defects in BIM models.Delattorre, Joyce Paula Martin 15 September 2016 (has links)
No mercado de construção civil, o BIM ou Modelagem da Informação da Construção, deixou de ser um modismo com poucos pioneiros, para ser a peça central da tecnologia do mercado de Arquitetura, Engenharia e Construção (AEC), abordando aspectos de projeto, construção e operação de edifícios. Além das informações de projeto, pode-se agregar ao modelo BIM dados externos oriundos da execução, avaliação e manutenção da construção. Cresce, com isso, o número de informações que podem ser armazenadas nos modelos e a oportunidade para identificação de padrões não explícitos, relacionados à geometria e topologia de seus componentes. Para análise destas informações, faz-se necessária a utilização de técnicas que permitam o seu processamento. Dentre as técnicas existentes para a descoberta de conhecimento em bases de dados está o KDD (Descoberta de Conhecimento em Bases de Dados) e, especificamente, a mineração de dados. Focando especificamente os dados oriundos do registro de defeitos da construção e considerando que o modelo BIM não é um repositório de dados no qual técnicas padrão podem ser aplicadas diretamente, esta pesquisa teve como objetivo o desenvolvimento de um arcabouço teórico que define os pontos relevantes para a utilização de técnicas de mineração de dados de defeitos construtivos em modelos BIM, fornecendo uma base conceitual para a sua aplicação prática. Acredita-se que a aplicação de mineração de dados em modelos BIM pode propiciar a identificação de padrões que são influenciados de alguma forma pela geometria dos elementos construtivos, padrões estes que podem ser úteis tanto para a análise de problemas de qualidade de execução, quanto para produtividade, manutenção, pós-ocupação, entre outros. Além da proposta de arcabouço teórico para mineração de dados em modelo BIM, esta pesquisa propôs um conjunto de componentes BIM para registro de informações de defeitos de construção, bem como uma proposta para categorização das relações entre os defeitos e os componentes do modelo BIM, de forma a tornar explícitas informações relevantes para mineração de seus dados. / In the construction market, BIM - Building Information Modeling is no longer a fad adopted by few pioneers, but the centerpiece of technology in the Architecture, Engineering and Construction market (AEC), addressing aspects of design, construction and operation of buildings. In addition to engineering design information, the BIM model allows for storage and management of information from the construction process, facilities operations and building maintenance. Alongside with this, the amount of information stored in models and the opportunity to identify patterns related to geometry and topology of construction components also increase. For the analysis of this information, the use of appropriate data processing techniques is essential. Use of KDD (Knowledge Database Discovery) and Data Mining are among the existing techniques used for knowledge extraction in large databases. While focusing on data from construction defects and considering that a BIM model is not a standard data repository, in which standard data mining techniques could be applied directly, this research aimed to develop a theoretical framework that defines the requirements and procedures for the use of Data Mining Techniques for construction defects in BIM models, while providing a conceptual basis for its practical application. It is based on the concept that the application of data mining in BIM models is able to retrieve patterns that are influenced by the geometry of building elements and that these patterns can be useful for analyzing issues of construction quality, productivity, maintenance, and post-occupancy, among others. In addition to the proposition of a theoretical framework, this research developed a standard set of BIM components for the record of construction defects data, and suggested a structure for the categorization of correlations between defects and BIM components, with the purpose of clearly identifying relevant information for the data mining process.
|
28 |
Aprendizagem de m?quina em apoio a diagn?stico em ortopedia / Machine learning in support of medical diagnosis orthopedicsSilva, Marcelo Cicero Ribeiro da 13 December 2016 (has links)
Submitted by SBI Biblioteca Digital (sbi.bibliotecadigital@puc-campinas.edu.br) on 2017-02-01T12:15:41Z
No. of bitstreams: 1
Marcelo Cicero Ribeiro da Silva.pdf: 2629636 bytes, checksum: 626dcdd3e190058ed959a36deb2c116f (MD5) / Made available in DSpace on 2017-02-01T12:15:41Z (GMT). No. of bitstreams: 1
Marcelo Cicero Ribeiro da Silva.pdf: 2629636 bytes, checksum: 626dcdd3e190058ed959a36deb2c116f (MD5)
Previous issue date: 2016-12-13 / Pontif?cia Universidade Cat?lica de Campinas ? PUC Campinas / One of the major responsible to change in a competitive landscape is the steady progress of technology and communication (TIC). With the evolution of technology and 'machine learning', computers are already available to carry out learning in a sophisticated way, improving the prescriptions of medical diagnosis, generating a second opinion for the medical professional and thus, To provide a better service to the community. The objective of this research is to develop a computational model, supported by data mining using machine learning techniques and, using communication devices integrated with communication and information technologies, to provide efficient support for The medical diagnosis in the area of orthopedics.The proof of the concept of this proposal will be used besed on a public database in the branch of backbone and the specific objective will be assist the doctor in the discovery of the Diseases Olisthesis and Herniated disk. This application will work with the concept of Knowledge Discovery in Databases to achieve the desired result. This process will use the Data Mining that, through classification algorithms, can transform data into useful information to the support the medical professional in the elaboration of diagnosis. The research will explore and define, in the WEKA Data Mining tool, the most appropriate algorithm, among the several that already exist, that can offer the highest diagnostic accuracy and enable a mobile solution. The dynamics structured in this work should allow that system to be enriched for each new patient treated and, with this, the platform becomes more efficient and effective as it expands. It is expected that the consulted computational model can be configured as a second opinion in support of the diagnosis of the medical professional. The results were satisfactory obtaining an average accuracy index above 86%. Among the benefits it is believed that it will be possible to assist in the graduation of new professionals assisting them in the Medical Residency, and reducing problems in possible medical errors thus, increasing the efficiency during the attendance and saving time and money. / Um dos grandes respons?veis pela mudan?a deum panorama competidor ? o progresso constante da tecnologia da informa??o e comunica??o (TIC).A maior parte das dificuldades na tomada de decis?o ? a transforma??o de dados e informa??es em conhecimento, principalmente quando as bases de dados dizem respeito ? sa?de. Com a evolu??o da tecnologia e do ?aprendizado de m?quina?(machine learning), j? se disp?e de computadores capazes de realizar aprendizado de forma sofisticada, permitindo sua utiliza??o no aux?lio nas prescri??es de diagn?stico m?dico, gerando uma segunda opini?o para o profissional da medicina e contribuindo, assim, para uma melhor presta??o de servi?o ? comunidade. O objetivo da pesquisa relatada consiste em elaborar um modelo computacional, apoiado em minera??o de dados com uso de t?cnicas de aprendizado de m?quina, que, utilizando-se de dispositivos de comunica??o integrados ?s tecnologias de comunica??o e informa??o e que venha oferecer suporte eficiente para o diagn?stico m?dico na ?rea de ortopedia. A prova do conceito desta proposta utilizar? de uma base de dados p?blica na especialidade da ortopedia (coluna vertebral) e o objetivo espec?fico ser? o de auxiliar o m?dico na descoberta das doen?as Listese e H?rnia de Disco. Esta aplica??o trabalhou com o conceito de descoberta de conhecimento em bases de dados (Knowledge Discovery in Databases), para conseguir o resultado desejado. Esse processo a Minera??o de Dados que, por meio de algoritmos de classifica??o, poder? transformar dados em informa??es ?teis ao apoio do profissional m?dico na elabora??o do seu diagn?stico. A pesquisa ir? explorar e definir, na ferramenta de Data Mining WEKA, o algoritmo mais apropriado, dentre os v?rios j? existentes, que possa oferecer maior acur?cia no diagn?stico e que viabilize uma solu??o tipo mobile. A din?mica estruturada neste trabalho dever? permitir que o sistema seja enriquecido a cada novo paciente tratado e que, com isto, a plataforma se torne mais eficiente e eficaz ? medida que se amplie. Espera-se que o modelo computacional elaborado possa se configurar como uma segunda opini?o em apoio ao diagn?stico do profissional m?dico retornando o diagnostico do paciente. Os resultados obtidos foram satisfat?rios obtendo um ?ndice de acuracidade m?dia acima de 86%. Dentre os benef?cios acredita-se que ser? poss?vel auxiliar na forma??o de novos profissionais auxiliando-os na Resid?ncia M?dica, na redu??o de problemas decorrentes de erros m?dicos e, dessa forma, aumenta-se a efic?cia no atendimento com ganhos de tempo e dinheiro.
|
29 |
Mineração de dados no Moodle: análise de prazos de entrega de atividadesTREGA DE ATIVIDADES / Analysis of assignment submissions deadlines in Moodle: a case study using data miningConti, Fabieli de 19 December 2011 (has links)
Virtual Learning Environments became common practice as a course tool for both distance
and presence learning courses, as they support the communication among the parties involved.
This study describes research carried out on data that were generated by the interaction with
the Moodle VLE within an educational institution, with focus on the analysis of due dates and
actual submission dates for assignments in the course environment. The objective of this study
is to obtain relevant information about how course assignments are posted in the learning environment,
to guide actions supporting the reduction of submissions after the due date or close
to the deadline, and to propose a transparent and automatic approach to integrating KDD activities
to the Moodle environment, where the data mining stage is restricted to the algorithms
selected within this study and the results are presented in a simplified manner within the user
interface in the Moodle environment. The study considers the time the assignment remained
open for posting, the course to which the assignment was proposed and the actual time when
the assignment was posted into the environment. It was carried out following the steps of the
knowledge discovery process in databases, using the Weka tool. As a result from the KDD process
performed in our database, the number of postings that were closer to the final expiry date
were higher for assignments longer than 15 days, graduate courses tended to have longer assignments
than undergraduate courses, and they also presented a higher number of postings after
the due date or close to the expiry date of the assignments. In this context, shorter assignments
are recommended, in order to increase postings soon after the opening of assignments and to
enable teachers to obtain faster feedback from the learning process undergone by the student.
That makes possible to take corrective actions in shorter time in order to avoid student failure or
dismissal. The implementation of the KDD process within Moodle enables the experimentation
by users in an automatic and simplified manner. / Como ferramenta pedagógica, os Ambientes Virtuais de Aprendizagem (AVA) tornaram-se
prática comum para o ensino à distância como nos cursos presenciais, por dar apoio à comunicação
entre os envolvidos com o ensino. Essa dissertação descreve uma pesquisa realizada sobre
os dados gerados pela interação com o AVA Moodle de uma instituição de ensino, focando a
análise de prazos e de datas efetivas de submissões de tarefas neste ambiente. O objetivo deste
trabalho é identificar padrões relevantes sobre a postagem de tarefas no ambiente, para subsidiar
ações em auxílio à postagem muito próximo ao final do período de postagem e propor
uma forma transparente e automática de integrar ao Moodle as atividades de KDD. A ferramenta
de integração proposta aborta os algoritmos de mineração de dados EM e J.48, selecionados no
nosso estudo e os resultados são apresentados de forma simplificada aos usuários na própria
interface do Moodle. Para o estudo, são considerados o período em que a tarefa permaneceu
aberta para postagem, o curso proveniente da tarefa e o período em que a postagem foi realizada.
O estudo foi realizado seguindo as etapas do processo de descoberta de conhecimento,
com a utilização da ferramenta Weka. No estudo observou-se a incidência do número de postagens
mais próximas ao término do tempo de postagem quando o prazo da mesma era superior
a 15 dias. Nos cursos de pós-graduação, observa-se que o tempo para postagem é maior que
nos cursos de nível superior e que esse nível apresenta maior quantidade de postagem sendo
realizadas no final do prazo de postagem. Nesse contexto, é mais viável a realização de atividades
com um prazo menor. Além de um maior número de submissões logo na abertura para
postagem, o professor consegue feedback mais rápido do processo de aprendizagem do aluno.
Isso possibilita tomar atitudes corretivas em tempo mais adequado a fim de evitar o insucesso
ou desistência do aluno. Com a implementação da integração do KDD ao Moodle é possível a
realização de experimentos por usuários de forma automática e simplificada.
|
30 |
Arcabouço teórico para mineração de dados de defeitos construtivos em modelos BIM. / Theoretical framework for data mining of construction defects in BIM models.Joyce Paula Martin Delattorre 15 September 2016 (has links)
No mercado de construção civil, o BIM ou Modelagem da Informação da Construção, deixou de ser um modismo com poucos pioneiros, para ser a peça central da tecnologia do mercado de Arquitetura, Engenharia e Construção (AEC), abordando aspectos de projeto, construção e operação de edifícios. Além das informações de projeto, pode-se agregar ao modelo BIM dados externos oriundos da execução, avaliação e manutenção da construção. Cresce, com isso, o número de informações que podem ser armazenadas nos modelos e a oportunidade para identificação de padrões não explícitos, relacionados à geometria e topologia de seus componentes. Para análise destas informações, faz-se necessária a utilização de técnicas que permitam o seu processamento. Dentre as técnicas existentes para a descoberta de conhecimento em bases de dados está o KDD (Descoberta de Conhecimento em Bases de Dados) e, especificamente, a mineração de dados. Focando especificamente os dados oriundos do registro de defeitos da construção e considerando que o modelo BIM não é um repositório de dados no qual técnicas padrão podem ser aplicadas diretamente, esta pesquisa teve como objetivo o desenvolvimento de um arcabouço teórico que define os pontos relevantes para a utilização de técnicas de mineração de dados de defeitos construtivos em modelos BIM, fornecendo uma base conceitual para a sua aplicação prática. Acredita-se que a aplicação de mineração de dados em modelos BIM pode propiciar a identificação de padrões que são influenciados de alguma forma pela geometria dos elementos construtivos, padrões estes que podem ser úteis tanto para a análise de problemas de qualidade de execução, quanto para produtividade, manutenção, pós-ocupação, entre outros. Além da proposta de arcabouço teórico para mineração de dados em modelo BIM, esta pesquisa propôs um conjunto de componentes BIM para registro de informações de defeitos de construção, bem como uma proposta para categorização das relações entre os defeitos e os componentes do modelo BIM, de forma a tornar explícitas informações relevantes para mineração de seus dados. / In the construction market, BIM - Building Information Modeling is no longer a fad adopted by few pioneers, but the centerpiece of technology in the Architecture, Engineering and Construction market (AEC), addressing aspects of design, construction and operation of buildings. In addition to engineering design information, the BIM model allows for storage and management of information from the construction process, facilities operations and building maintenance. Alongside with this, the amount of information stored in models and the opportunity to identify patterns related to geometry and topology of construction components also increase. For the analysis of this information, the use of appropriate data processing techniques is essential. Use of KDD (Knowledge Database Discovery) and Data Mining are among the existing techniques used for knowledge extraction in large databases. While focusing on data from construction defects and considering that a BIM model is not a standard data repository, in which standard data mining techniques could be applied directly, this research aimed to develop a theoretical framework that defines the requirements and procedures for the use of Data Mining Techniques for construction defects in BIM models, while providing a conceptual basis for its practical application. It is based on the concept that the application of data mining in BIM models is able to retrieve patterns that are influenced by the geometry of building elements and that these patterns can be useful for analyzing issues of construction quality, productivity, maintenance, and post-occupancy, among others. In addition to the proposition of a theoretical framework, this research developed a standard set of BIM components for the record of construction defects data, and suggested a structure for the categorization of correlations between defects and BIM components, with the purpose of clearly identifying relevant information for the data mining process.
|
Page generated in 0.0762 seconds