• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 58
  • 55
  • 19
  • 15
  • 14
  • 10
  • 7
  • 5
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 327
  • 78
  • 61
  • 52
  • 41
  • 36
  • 35
  • 32
  • 31
  • 28
  • 27
  • 27
  • 25
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Comparación de la escala modificada de alerta temprana (MEWS) y APACHE II en pacientes del Servicio de Medicina de Emergencia Adultos del Hospital Nacional Daniel Alcides Carrión - 2014

Sotomayor Huanqui, Silver Alex January 2015 (has links)
El documento digital no refiere asesor / Publicación a texto completo no autorizada por el autor / Determina la capacidad de predicción de complicación y mortalidad de la Escala Modificada de Alerta Temprana (MEWS) en los pacientes con patología aguda del servicio de emergencia Adultos del HNDAC. El estudio es observacional, analítico-relacional, de corte longitudinal, prospectivo. La muestra está constituida por 505 pacientes atendidos en el Servicio de Emergencia del Hospital Nacional Daniel Alcides Carrión. Para el análisis descriptivo de las variables cuantitativas se estimó medidas de tendencia central y de dispersión, para las variables cualitativas se utilizó frecuencias absolutas y relativas. Para determinar los puntos de corte se utilizó curvas ROC y para evaluar la capacidad predictiva de las escalas se calculó la sensibilidad, especificidad, VP+ y VP-, además de la Prueba de chi-cuadrado con un nivel de significancia del 5%. Los resultados son que la edad promedio de los pacientes fue de 61,1±19,4 años, donde el 44,5% de los pacientes eran mayores de 65 años (44,5%), con predominio del sexo femenino (52,3%). Las áreas de atención en el Servicio de Emergencia fueron; Reposo (41,6%), Hospitalización (33,9%) y Trauma shock (24,5%). Mediante curvas ROC, se determinó los puntos de corte para predicción de mortalidad y complicaciones, mostrándose para el caso de la escala APACHE II una notable discriminación a partir del valor 14 obtenido en la evaluación al ingreso. Para el caso de la escala MEWS, el punto de corte que mejor discrimina fue el valor 4 al ingreso, sin embargo se encontró que el punto de corte para el MEWS a las 12, 24, 36 y 48 horas fue el valor 3. En la evaluación de la capacidad predictiva de las Escalas APACHE II y MEWS de mortalidad se encontró que la escala MEWS medido a las 12 horas presentó mayor sensibilidad (76%) comparada con la escala APACHE II (71%) y una especificidad alta (61%) pero no superior a la Escala APACHE II (71%). El valor predictivo positivo y negativo de la escala APACHE II presentó valores superiores al resultado de la escala MEWS, siendo estos valores en la escala APACHE II, VP+ (33%) y VP- (93%) y la escala MEWS VP+ (29%) y VP- (92%). En cuanto a la capacidad de las escalas en predecir complicaciones se encontró que la escala MEWS medido a las 12 horas presentó mayor sensibilidad (68%) comparada con la escala APACHE II (61%) y una especificidad alta (62%) pero no superior a la escala APACHE II (71%); en cuanto al VP+ y VP- la escala APACHE II presentó valores superiores o similares a la escala MEWS. La evolución de los pacientes luego de su permanencia y seguimiento durante 7 días fue buena (40,8%), estacionaria (40,2%) y desfavorable (19,0%), además se encontró una relación significativa entre la escala NEWS evaluada a las 12 horas con la evolución del paciente a los 7 días (p<0.001). De los 505 pacientes atendidos, 84 (16,6%) de ellos fallecieron durante los 7 días de seguimiento. Se concluye que la escala MEWS medido a las 12 horas de ingreso al Servicio de Emergencia presenta una buena capacidad predictiva de complicación y mortalidad en pacientes con patología aguda atendidos en el Hospital Nacional Alcides Carrión. / Trabajo académico
162

Consequences of converting a data warehouse based on a STAR-schema to a column-oriented-NoSQL-database

Bodegård Gustafsson, Rebecca January 2018 (has links)
Data warehouses based on the relational model has been a popular technology for many years, because they are very reliable due to their ACID-properties (Atomicity, Consistency, Isolation, and Durability). However, the new demands on databases today due to increasing amounts of data and data structures changing do mean that the relational model might not always be the optimal choice. NoSQL is the name of a group of databases that are less bound by schemas and are therefore more scalable and easier to make changes in. They are also adapted for massive parallel processing and are therefore suited for handling large amounts of data. Out of all of the NoSQL databases column-databases are the most like the relational model since it also consists of tables. This study has therefore converted a relational data warehouse based on a STAR-schema to a column-oriented-NoSQL-database and evaluated the implementation by comparing query-times between the relational data warehouse and the column-oriented-NoSQL-database. Scrambled economical data from a business in Sweden has been used to do the conversion and test it by asking a few usual queries. The results show that the mapping works but the query-time in the NoSQL-database is simnifically longer.
163

Collecting Information from a decentralized microservice architecture

Ekbjörn, Carl, Sonesson, Daniel January 2018 (has links)
As a system grows in size, it is common that it is transformed into a microservice architecture. In order to be able monitor this new architecture there is a need to collect information from the microservices. The software company IDA Infront is transitioning their product iipax to a microservice architecture and is faced with this problem. In order to solve this, they propose the use of a Message-oriented Middleware (MOM). There exists many different MOMs that are suitable to execute this task. The aim of this thesis is to determine, in terms of latency, throughput and scalability, which MOM is best suitable for this. Out of four suitable MOMs Apache Kafka and RabbitMQ are chosen for further testing and benchmarking. The tests display that RabbitMQ is able to send single infrequent messages (latency) faster than Kafka. But it is also shown that Kafka is faster at sending a lot of messages rapidly and with an increased number of producers sending messages (throughput and scalability). However, the scalability test suggests that RabbitMQ possibly scales better with a larger amount of microservices, thus more testing is needed to get a definite conclusion.
164

Uso de Rede Bayesiana na probabilidade de óbito em Unidade de Terapia Intensiva / Alysson Frantz ; orientadora, Andreia Malucelli

Frantz, Alysson January 2008 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2008 / Bibliografia: f. 107-112 / O prognóstico de doenças, assim como o seu diagnóstico e tratamento, faz parte dos cuidados prestados pelo profissional de saúde, sendo que, para determinar a probabilidade de óbito de pacientes devem-se considerar as idiossincrasias populacionais, as dif / The prognostics of illnesses, as well as their diagnosis and treatment, are part of the care taken by the health professional. In order to determine the death probability of patients, it is necessary to consider the population idiosyncrasies, the differen
165

Correlação probabilística implementada em spark para big data em saúde

Pita, Robespierre Dantas da Rocha 05 March 2015 (has links)
Submitted by Santos Davilene (davilenes@ufba.br) on 2016-05-30T16:15:43Z No. of bitstreams: 1 Dissertação_Mestrado_Clicia(1).pdf: 2228201 bytes, checksum: d990a114eac5a988c57ba6d1e22e8f99 (MD5) / Made available in DSpace on 2016-05-30T16:15:43Z (GMT). No. of bitstreams: 1 Dissertação_Mestrado_Clicia(1).pdf: 2228201 bytes, checksum: d990a114eac5a988c57ba6d1e22e8f99 (MD5) / A aplicação de técnicas de correlação probabilística em registros de saúde ou socioeconômicos de uma população tem sido uma prática comum entre epidemiologistas como base para suas pesquisa não-experimentais. Entretanto, o crescimento do volume dos dados comum ao cenário imposto pelo Big Data provocou uma carˆencia por ferramentas computacionais capazes de lidar com esses imensos reposit´orios. Neste trabalho é descrita uma solução implementada no framework de processamento em cluster Spark para a correlação probabilística de registros de grandes bases de dados do Sistema Público de Saúde brasileiro. Este trabalho está vinculado a um projeto que visa analisar a relação entre o Programam Bolsa Família e a incidência de doen¸cas associadas á pobreza, tais como hanseníase e tuberculose. Os resultados obtidos demonstram que esta implementação provê qualidade competitiva em relação a outras ferramentas e abordagens existentes, comprovada pela superioridade das métricas de tempo de execução.
166

Classificação de RIFLE: análise do desempenho prognóstico em pacientes criticamente enfermos

Wahrhaftig, Kátia de Macêdo January 2012 (has links)
Submitted by Edileide Reis (leyde-landy@hotmail.com) on 2015-04-11T01:53:33Z No. of bitstreams: 1 Kátia de Macêdo Wahrhaftig.pdf: 1757224 bytes, checksum: ea1325f0ded193ddc1b070cf182d27e5 (MD5) / Made available in DSpace on 2015-04-11T01:53:33Z (GMT). No. of bitstreams: 1 Kátia de Macêdo Wahrhaftig.pdf: 1757224 bytes, checksum: ea1325f0ded193ddc1b070cf182d27e5 (MD5) Previous issue date: 2012 / A classificação de RIFLE define três classes de severidade da Lesão Renal Aguda (LRA): Risco, Injúria e Falência. A severidade da LRA foi associada à mortalidade. Entretanto, se a classificação de RIFLE melhora o desempenho do APACHE II na predição de óbito em pacientes críticos não é conhecida, além de pouco avaliada em estudos prospectivos. Objetivo: Analisar se a classificação de RIFLE agrega valor ao desempenho do escore APACHE II na discriminação da mortalidade em pacientes criticamente enfermos e avaliar prospectivamente a associação do RIFLEmáximo Injúria+Falência com a mortalidade nessa população. Metodologia: Estudo observacional de coorte prospectiva de 200 pacientes admitidos na UTI, de julho/ 2010 a julho/ 2011. Resultados: A idade da amostra analisada foi de 66 (±16,7) anos, 53,3% do sexo feminino. A mortalidade geral na UTI foi 25,5%. O APACHE II apresentou estatística-C de 0,75 ± 0,038 (IC 95%: 0,68-0,80 P=0,001) e 0,80 ± 0,034(IC 95%: 0,74-0,86 P=0,001), após incorporado à classificação de RIFLE, em relação a predição de óbito. A comparação entre as AUROCs, P=0,03. Observou-se que 40% dos pacientes classificados inicialmente como Risco progrediram. A mortalidade foi de 53,3% versus 4,4% nos subgrupos com LRA RIFLEmáximo Injúria+Falência e Sem LRA+RIFLEmáximo Risco, respectivamente. O RIFLEmáximo Injúria+Falência foi associado à mortalidade após ajustes para outras variáveis (OR:13 IC95%: 4,57-37,6 P=0,001).Conclusão: A gravidade da LRA, definida pela classificação de RIFLE foi um marcador de risco para mortalidade em pacientes criticamente enfermos, e melhorou o desempenho do escore APACHE II na discriminação da mortalidade nessa população. O RIFLEmáximo Injúria+Falência apresentou maior risco de morte quando comparado à aqueles que permaneceram na classe Risco ou que não desenvolveram LRA.
167

Escalonamento adaptativo para o Apache Hadoop / Adaptative scheduling for Apache Hadoop

Cassales, Guilherme Weigert 11 March 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Many alternatives have been employed in order to process all the data generated by current applications in a timely manner. One of these alternatives, the Apache Hadoop, combines parallel and distributed processing with the MapReduce paradigm in order to provide an environment that is able to process a huge data volume using a simple programming model. However, Apache Hadoop has been designed for dedicated and homogeneous clusters, a limitation that creates challenges for those who wish to use the framework in other circumstances. Often, acquiring a dedicated cluster can be impracticable due to the cost, and the acquisition of reposition parts can be a threat to the homogeneity of a cluster. In these cases, an option commonly used by the companies is the usage of idle computing resources in their network, however the original distribution of Hadoop would show serious performance issues in these conditions. Thus, this study was aimed to improve Hadoop’s capacity of adapting to pervasive and shared environments, where the availability of resources will undergo variations during the execution. Therefore, context-awareness techniques were used in order to collect information about the available capacity in each worker node and distributed communication techniques were used to update this information on scheduler. The joint usage of both techniques aimed at minimizing and/or eliminating the overload that would happen on shared nodes, resulting in an improvement of up to 50% on performance in a shared cluster, when compared to the original distribution, and indicated that a simple solution can positively impact the scheduling, increasing the variety of environments where the use of Hadoop is possible. / Diversas alternativas têm sido empregadas para o processamento, em tempo hábil, da grande quantidade de dados que é gerada pelas aplicações atuais. Uma destas alternativas, o Apache Hadoop, combina processamento paralelo e distribuído com o paradigma MapReduce para fornecer um ambiente capaz de processar um grande volume de informações através de um modelo de programação simplificada. No entanto, o Apache Hadoop foi projetado para utilização em clusters dedicados e homogêneos, uma limitação que gera desafios para aqueles que desejam utilizá-lo sob outras circunstâncias. Muitas vezes um cluster dedicado pode ser inviável pelo custo de aquisição e a homogeneidade pode ser ameaçada devido à dificuldade de adquirir peças de reposição. Em muitos desses casos, uma opção encontrada pelas empresas é a utilização dos recursos computacionais ociosos em sua rede, porém a distribuição original do Hadoop apresentaria sérios problemas de desempenho nestas condições. Sendo assim, este estudo propôs melhorar a capacidade do Hadoop em adaptar-se a ambientes, pervasivos e compartilhados, onde a disponibilidade de recursos sofrerá variações no decorrer da execução. Para tanto, utilizaram-se técnicas de sensibilidade ao contexto para coletar informações sobre a capacidade disponível nos nós trabalhadores e técnicas de comunicação distribuída para atualizar estas informações no escalonador. A utilização conjunta dessas técnicas teve como objetivo a minimização e/ou eliminação da sobrecarga que seria causada em nós com compartilhamento, resultando em uma melhora de até 50% no desempenho em um cluster compartilhado, quando comparado com a distribuição original, e indicou que uma solução simples pode impactar positivamente o escalonamento, aumentando a variedade de ambientes onde a utilização do Hadoop é possível.
168

StackAct: avaliação de desempenho em uma nuvem IaaS multicamadas / StackAct: performance evaluation in an IaaS cloud multilayer

Bruschi, Gustavo Cesar [UNESP] 01 June 2016 (has links)
Submitted by GUSTAVO CESAR BRUSCHI null (gustavo@bruschi.net) on 2016-06-30T22:02:25Z No. of bitstreams: 1 Dissertacao_GustavoBruschi_FINAL(CORRIGIDO)_v2.pdf: 2377456 bytes, checksum: 41a5c87825aeb7131a629aee63fc450d (MD5) / Rejected by Ana Paula Grisoto (grisotoana@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo a orientação abaixo: O arquivo submetido está sem a ficha catalográfica. A versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão contendo o arquivo correto. Agradecemos a compreensão. on 2016-07-04T18:38:19Z (GMT) / Submitted by GUSTAVO CESAR BRUSCHI null (gustavo@bruschi.net) on 2016-07-05T13:38:34Z No. of bitstreams: 2 Dissertacao_GustavoBruschi_FINAL(CORRIGIDO)_v2.pdf: 2377456 bytes, checksum: 41a5c87825aeb7131a629aee63fc450d (MD5) Dissertacao_GustavoBruschi_FINAL(CORRIGIDO)_v2.pdf: 2402200 bytes, checksum: 7d077bcd92c83a83ef1a9502d794312d (MD5) / Approved for entry into archive by Ana Paula Grisoto (grisotoana@reitoria.unesp.br) on 2016-07-07T16:26:49Z (GMT) No. of bitstreams: 1 bruschi_gc_me_sjrp.pdf: 2402200 bytes, checksum: 7d077bcd92c83a83ef1a9502d794312d (MD5) / Made available in DSpace on 2016-07-07T16:26:49Z (GMT). No. of bitstreams: 1 bruschi_gc_me_sjrp.pdf: 2402200 bytes, checksum: 7d077bcd92c83a83ef1a9502d794312d (MD5) Previous issue date: 2016-06-01 / A Computação em Nuvem tornou-se sinônimo de qualidade e eficiência em investimento na área de Tecnologia de Informação, criando novos desafios para o processamento e integração de dados. O desempenho da solução adotada é um ponto chave para o sucesso de uma solução em Nuvem, assim como a maneira como as máquinas virtuais realizam a leitura e gravação no armazenamento, podem ser determinantes para uma melhor utilização desta solução. Este trabalho apresenta o StackAct, um mecanismo que permite realizar o monitoramento e obter dados, em uma Nuvem IaaS, relativos ao consumo de recursos computacionais de uma solução em três camadas utilizando orquestrador Apache CloudStack com hypervisor XenServer e armazenamento dos dados no sistema Openfiler. Foram realizados testes de desempenho utilizando três diferentes tipos de perfil de instâncias em uma nuvem computacional privada, possibilitando mensurar os consumos de CPU, E/S e Memória nas três camadas envolvidas, com diferentes tipos de ofertas de serviços. Os testes resultaram em um comparativo entre cada item analisado para cada camada individual, onde foi possível detectar uma pequena variação entre as diferentes configurações de testes devido a forma como a camada do hypervisor enfileira as requisições realizadas pela camada do orquestrador. Já no comparativo realizado entre as camadas, foi possível constatar o alto consumo de disco na camada de armazenamento de dados, em especial E/S de gravação de dados, que levaram a realização de outros testes utilizando disco de estado sólido na camada de armazenamento, tendo um grande impacto no desempenho da solução como um todo. Foi detectado também um alto consumo de memória na camada hypervisor, que é justificada pela alocação do próprio hypervisor além das VMs que estão sendo criadas e utilizadas no processo. / Cloud Computing has become synonymous of quality, efficiency, and return of investment in Information Technology, creating new challenges for processing and data integrations. The performance of the adopted solution is a key to the success of a solution on Cloud, as well as the way that virtual machines use reading and writing to storage, which can be decisive for a better use of this solution. This work presents the StackAct, a mechanism that allows for monitoring and obtaining data on the consumption of computing resources of a solution in three layers using orchestrator IaaS Apache CloudStack with XenServer hypervisor and storage of data on the NAS OpenFiler system. Based on this mechanism, performance tests were conducted using three different instances of a private cloud. CPU, I/O, and memory usages in the three layers involved were measured with different types of loads. The tests resulted in a comparison between each item analyzed for each individual layer, and it was possible to detect a slight variation between the different configurations of tests because of the way that the hypervisor layer queues the requests made by the orchestrator layer. In the comparison made between the layers, it was possible to high consumption of disk in the data storage layer, in particular I/O data recording, which led to other tests using solid state disk in the storage layer, having an high impact on the performance of the solution as a whole. It was also detected high memory in the hypervisor layer, which is justified by the allocation of the hypervisor itself beyond the VMs being created and used in the process.
169

Using clickthrough data to optimize search result ranking : An evaluation of clickthrough data in terms of relevancy and efficiency / Användning av clickthrough data för att optimera rankning av sökresultat : En utvärdering av clickthrough data gällande relevans och effektivitet

Paulsson, Anton January 2017 (has links)
Search engines are in a constant need for improvements as the rapid growth of information is affecting the search engines ability to return documents with high relevance. Search results are being lost in between pages and the search algorithms are being exploited to gain a higher ranking on the documents. This study attempts to minimize those two issues, as well as increasing the relevancy of search results by usage of clickthrough data to add another layer of weighting the search results. Results from the evaluation indicate that clickthrough data in fact can be used to gain more relevant search results.
170

Big Data analytics for the forest industry : A proof-of-conceptbuilt on cloud technologies

Sellén, David January 2016 (has links)
Large amounts of data in various forms are generated at a fast pace in today´s society. This is commonly referred to as “Big Data”. Making use of Big Data has been increasingly important for both business and in research. The forest industry is generating big amounts of data during the different processes of forest harvesting. In Sweden, forest infor-mation is sent to SDC, the information hub for the Swedish forest industry. In 2014, SDC received reports on 75.5 million m3fub from harvester and forwarder machines. These machines use a global stand-ard called StanForD 2010 for communication and to create reports about harvested stems. The arrival of scalable cloud technologies that com-bines Big Data with machine learning makes it interesting to develop an application to analyze the large amounts of data produced by the forest industry. In this study, a proof-of-concept has been implemented to be able to analyze harvest production reports from the StanForD 2010 standard. The system consist of a back-end and front-end application and is built using cloud technologies such as Apache Spark and Ha-doop. System tests have proven that the concept is able to successfully handle storage, processing and machine learning on gigabytes of HPR files. It is capable of extracting information from raw HPR data into datasets and support a machine learning pipeline with pre-processing and K-Means clustering. The proof-of-concept has provided a code base for further development of a system that could be used to find valuable knowledge for the forest industry.

Page generated in 0.0415 seconds