• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1889
  • 58
  • 57
  • 38
  • 37
  • 37
  • 20
  • 14
  • 13
  • 7
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 2742
  • 2742
  • 1124
  • 984
  • 848
  • 621
  • 581
  • 500
  • 497
  • 472
  • 451
  • 447
  • 420
  • 416
  • 387
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

DEEP LEARNING BASED FRAMEWORK FOR STRUCTURAL TOPOLOGY DESIGN

Rawat, Sharad 23 October 2019 (has links)
No description available.
262

Laplacian Pyramid FCN for Robust Follicle Segmentation

Wang, Zhewei 23 September 2019 (has links)
No description available.
263

Multimodal Learning and Single Source WiFi Based Indoor Localization

Wu, Hongyu 15 June 2020 (has links)
No description available.
264

Consistent and Accurate Face Tracking and Recognition in Videos

Liu, Yiran 23 September 2020 (has links)
No description available.
265

Dimension Reduction for Network Analysis with an Application to Drug Discovery

Chen, Huiyuan January 2020 (has links)
No description available.
266

A Conditional Generative Adversarial Network Demosaicing Strategy for Division of Focal Plane Polarimeters

Sargent, Garrett Craig January 2020 (has links)
No description available.
267

Leveraging attention-based deep neural networks for security vetting of Android applications

Pathak, Prabesh 01 June 2021 (has links)
No description available.
268

LSTMs and Deep Residual Networks for Carbohydrate and Bolus Recommendations in Type 1 Diabetes Management

Beauchamp, Jeremy T. 25 May 2021 (has links)
No description available.
269

Image-Based Biomarker Localization from Regression Networks

Cano Espinosa, Carlos 26 September 2019 (has links)
La inteligencia artificial, y en concreto la desarrollada mediante aprendizaje profundo, se ha instaurado firmemente en nuestra sociedad en la última década. Los avances tecnológicos han hecho posible su uso en todos los ámbitos, lo que ha impulsado la investigación y el desarrollo de nuevos métodos que superan enormemente a lo que hasta hace poco era lo que se consideraba más avanzado. Las técnicas tradicionales han sido sustituidas por redes neuronales que permiten obtener resultados de mejor calidad de una forma mucho más rápida. Esto ha sido posible principalmente por dos factores: Primero, el avance en la tecnología de procesadores gráficos, que permiten una alta paralelización, ha permitido el desarrollo de técnicas que hasta la fecha eran completamente inviables debido a su coste temporal. Segundo, la proliferación de la ``cultura de los datos'' en la que estos son tratados como un recurso imprescindible, sumado al abaratamiento de la capacidad de almacenamiento digital, ha propiciado la aparición de grandes bases de datos de todo tipo y para todo propósito, creciendo exponencialmente con el tiempo y con una calidad cada vez superior debido a que se diseñan con el propósito específico de servir como base a estos tipos de sistemas inteligentes. Uno de los ámbitos que más se han beneficiado por estas técnicas es el entorno médico. La era de la digitalización ha hecho posible la recopilación de datos con información de pacientes, enfermedades, tratamientos, etc. No obstante, algo que diferencia al entorno médico de muchos otros ámbitos es que para poder atender correctamente a un paciente y valorar su estado es necesario la opinión de un experto, lo que provoca cierta inseguridad en el uso de los sistemas inteligentes, ya que estos hasta la fecha tienen una gran falta de explicabilidad. Es decir, pueden por ejemplo predecir, categorizar o localizar una enfermedad, pero no es fácilmente interpretable el cómo ha llegado a esa conclusión, cosa que es imprescindible conocer antes de tomar una decisión que puede ser crítica para el paciente. Además, este tipo de técnicas aplicadas al entorno médico tienen un problema añadido. Puesto que las bases de datos suelen provenir de diferentes instituciones, con una diversidad importante en cuanto a los modelos de máquinas empleadas para la obtención de estos datos, cada una con unas propiedades y características diferentes. Por ejemplo, suele existir una diferencia importante en los resultados al aplicar un método que se entrenó con datos provenientes de un hospital, en datos de otro diferente. Para hacer uso de estas bases de datos se requiere que sean lo suficientemente grandes como para poder generalizar de manera adecuada este hecho. Por otro lado, nos encontramos con que las bases de datos suelen estar etiquetadas por varios especialistas, por lo que se introduce cierto grado de diversidad subjetiva e incluso algunos errores que han de tenerse en cuenta. No obstante, en los últimos años se está haciendo un esfuerzo importante en solventar todos estos problemas. Concretamente en el campo de la interpretabilidad, aunque aún es un tema que está en sus fases más tempranas, surgen muchas propuestas que lo abordan desde diferentes perspectivas. Con ello en mente, esta investigación hace su aporte centrándose en redes neuronales para la regresión de biomarcadores, proponiendo un método capaz de indicar la localización de aquellas estructuras, órganos, tejidos o fluidos a partir de los cuales se infieren. Para ello, únicamente se dispone del valor agregado final de dichos biomarcadores y se pretende obtener una localización que explique dicho valor. En esta tesis se analizarán las redes de regresión directa, proponiendo una arquitectura para el cálculo de la Enfermedad de las Arterias Coronarias (CAD), haciendo un estudio de los diferentes elementos que la compone, incluyendo la función de coste empleada y cómo afecta al resultado dependiendo de las propiedades de los datos utilizados para su entrenamiento. Los resultados se validan en otros dos problemas de regresión, Área del Musculo Pectoral (PMA) y Área de Grasa Subcutánea (SFA). Como resultado de esta tesis podemos concluir que la regresión directa de los biomarcadores es una tarea totalmente viable, obteniendo altos índices de correlación entre los resultados calculados por este tipo de redes y la referencia real obtenida de la evaluación de un especialista en el campo al cual se aplica. En segundo lugar, la percepción de este tipo de sistemas en el entorno médico puede mejorarse si, junto con el resultado de la regresión, se proporciona una localización que guíe al especialista para inferir de dónde proviene este valor, centrando su atención en una región específica de la imagen. En esta tesis se profundiza en las redes de regresión de biomarcadores y permitiéndoles localizar las estructuras utilizadas para inferir el valor del biomarcador.
270

VISUAL SALIENCY ANALYSIS, PREDICTION, AND VISUALIZATION: A DEEP LEARNING PERSPECTIVE

Mahdi, Ali Majeed 01 August 2019 (has links) (PDF)
In the recent years, a huge success has been accomplished in prediction of human eye fixations. Several studies employed deep learning to achieve high accuracy of prediction of human eye fixations. These studies rely on pre-trained deep learning for object classification. They exploit deep learning either as a transfer-learning problem, or the weights of the pre-trained network as the initialization to learn a saliency model. The utilization of such pre-trained neural networks is due to the relatively small datasets of human fixations available to train a deep learning model. Another relatively less prioritized problem is amount of computation of such deep learning models requires expensive hardware. In this dissertation, two approaches are proposed to tackle abovementioned problems. The first approach, codenamed DeepFeat, incorporates the deep features of convolutional neural networks pre-trained for object and scene classifications. This approach is the first approach that uses deep features without further learning. Performance of the DeepFeat model is extensively evaluated over a variety of datasets using a variety of implementations. The second approach is a deep learning saliency model, codenamed ClassNet. Two main differences separate the ClassNet from other deep learning saliency models. The ClassNet model is the only deep learning saliency model that learns its weights from scratch. In addition, the ClassNet saliency model treats prediction of human fixation as a classification problem, while other deep learning saliency models treat the human fixation prediction as a regression problem or as a classification of a regression problem.

Page generated in 0.0924 seconds