• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 220
  • 113
  • 66
  • 35
  • 29
  • 22
  • 16
  • 16
  • 16
  • 11
  • 10
  • 2
  • 2
  • 1
  • Tagged with
  • 624
  • 117
  • 68
  • 61
  • 60
  • 58
  • 53
  • 50
  • 48
  • 48
  • 44
  • 38
  • 38
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Investigação óptica e estrutural de lipoproteínas de baixa densidade de pacientes diabéticos com e sem periodontite / Optical and structural investigation of low-density lipoprotein of diabetic patients with and without periodontitis

Albattarni, Ghadeer 10 December 2018 (has links)
Alta concentração de lipoproteína modificada de baixa densidade (LDL) é um dos fatores que aumentam o risco de doenças cardíacas. As concentrações mais elevadas de LDL modificada estão associadas à aterosclerose nas veias de sangue. A técnica de Z- scan (ZS) foi utilizada para investigar a resposta óptica não-linear da lipoproteína modificada de baixa densidade (moLDL). As características estruturais do mLDL foram estudadas por espalhamento dinâmico de luz. Nesta pesquisa, os experimentos foram realizados em amostras de LDL de 24 pacientes com diabetes e gengivite (grupo 1) e 24 pacientes com diabetes e periodontite (grupo 2). Os experimentos foram repetidos após 6 meses sem qualquer tratamento para o grupo 2 e com um tratamento periodontal para o grupo 1. Os resultados mostram que a amplitude da curva Z-scan no grupo 1 é menor que a do grupo 2. Após 6 meses de tratamento periodontal a amplitude é maior do que antes, depois a concentração de LDL modificado é reduzida nos pacientes tratados. Portanto, o risco cardiovascular para aterosclerose é diminuído após o tratamento periodontal. Além disso, os resultados do espalhamento dinâmico de luz mostram que não há nenhuma mudança estrutural significativa no moLDL entre os dois grupos antes e após 6 meses. / High-concentration of modified low-density lipoprotein (LDL) is one of the factors that increases the risk of heart disease. The higher concentrations of modified LDL are associated with the atherosclerosis in the bloodstream. The Z-scan (ZS) technique was used to investigate the nonlinear optical response of modified low-density lipoprotein (moLDL). The structural characteristics of moLDL were studied by dynamic light scattering. In this work, the experiments were carried out in LDL solution from 24 patients with diabetes and gingivitis (group 1) and 24 patients with diabetes and periodontitis (group 2). The experiments had been repeated after 6 months without any treatment for group 1 and with a periodontal treatment for group 2. The results show that the amplitude of Z-scan curve in group 2 is lower than that of group 1. After 6 months of periodontal treatment the amplitude is getting higher than before, then the concentration of modified LDL is reduced in the patients treated. Therefore, the cardiovascular risk for atherosclerosis is decreased after the periodontal treatment. Also, dynamic light scattering results show that there is not a significant structural change in moLDL between the two groups before and after 6 months.
182

Deriving System Vulnerabilities Using Log Analytics

Higbee, Matthew Somers 01 November 2015 (has links)
System Administrators use many of the same tactics that are implemented by hackers to validate the security of their systems, such as port scanning and vulnerability scanning. Port scanning is slow, and can be highly inaccurate. After a scan is complete, the results of the scan must be cross checked with a vulnerability database to discover if any vulnerabilities are present. While these techniques are useful, they have severe limitations. System Administrators have full access to all of their machines. They should not have to rely exclusively on port scanning them from the outside of their machines to check for vulnerabilities when they have this level of access. This thesis introduces a novel concept for replacing port scanning with a Log File Inventory Management System. This system will be able to automatically build an accurate system inventory using existing log files. This system inventory will then be automatically cross checked with a database of known vulnerabilities in real-time resulting in faster and more accurate vulnerability reporting than is found in traditional port scanning methods.
183

Differenzierung von frischen und alten linksventrikulären Thromben mittels Gewebedoppler- Echokardiographie / Differentiation Between Fresh and Old Left Ventricular Thrombi by Deformation Imaging

Gaudron, Philipp January 2011 (has links) (PDF)
Nach einem fulminanten Myokardinfarkt können sich, basierend auf Veränderungen der Blutströmungseigenschaften im Bereich von dys- /akinetischen Bereichen und Aneurysmen des linken Ventrikels, Thromben bilden. Da ein frischer Thrombus mit einem hohen Risiko für eine systemische Embolie einhergeht (13%) und eine umgehende Vollantikoagulation des betroffenen Patienten erfordert, wäre es von klinischer Bedeutung eine Untersuchungsmethode zur Verfügung zu haben, mit der man frische von alten Thromben eindeutig unterscheiden kannIm Rahmen dieser Studie wurden innerhalb von 2 Jahren 52 Patienten mit linksventrikulären Thromben nach Myokardinfarkt untersucht. Es wurden eine echokardio-graphische Standarduntersuchung und zusätzlich Gewebedoppleraufnahmen angefertigt. Alle Studienteilnehmer wurden auf 2 verschiedene Studienteile aufgeteilt. In Studienteil 1 (n= 20) wurden die detektierten Thromben anhand der bekannten Altersanamnese des Thrombus als frisch (<3 Monate) oder alt (>3 Monate) klassifiziert. In Studienteil 2 (n=32) wurden die echokardiographischen Datensätze der Patienten ohne Kenntnis der individuellen Krankheitsgeschichte, von einer untersucherunabhängigen Person analysiert und ausgewertet. Die Thromben wurden anhand der in Studienteil 1 gewonnen Erkenntnisse als frisch (n=17) oder alt (n=15) klassifiziert. Alle Patienten erhielten unabhängig vom Alter des Thrombus eine Therapie mittels Phenprocoumon zur systemischen Vollantikoagulation.Die Patienten des 2. Studienteils wurden nach 6 Monaten zu einem Follow-Up eingeladen. Im Rahmen eigener Vorarbeiten im 1. Studienteil konnte gezeigt werden, dass der signifikanteste Unterscheidungsparameter zwischen Thromben verschiedenen Alters in der Messung der Strain- Rate (SR 1/s)zu finden war. Hierzu wurde der maximale SR- Peak in der isovolumetrischen Relaxationsperiode gemessen. Es ließ sich bei einem Cut-off Wert von 1s-1 eine eindeutige Klassifikation nach Frisch und Alt durchführen. Im Rahmen der Follow-Up Untersuchungen nach 6 Monaten sahen wir alle 32 Patienten erneut. Es konnte gezeigt werden, dass die Thromben die anhand der geschilderten Kriterien als frisch (SR- Peak ≥ 1s-1) klassifiziert worden waren, sich in 16 von 17 Fällen unter antikoagulativer Therapie aufgelöst hatten. In 1 von 17 Fällen fand eine Größenreduktion um mehr als 50% statt und das Residuum entsprach den Kriterien für einen alten Thrombus. Die als alt (SR- Peak < 1s-1) klassifizierten Thromben konnten, ebenfalls unter Therapie mit Phenprocoumon, in 14 von 15 Fällen unverändert in Ihrer Position, Größe, Morphologie und Verformungseigenschaft gefunden werden. Es konnte in dieser Studie gezeigt werden, dass nach Durchführung der beschriebenen Messmethoden und somit unter Kenntnis des Alters eines Thrombus, eine Wahrscheinlichkeit zur Auflösung von Thromben angegeben werden kann. Für einen frischen Thrombus unter Therapie mit Phenprocoumon liegt diese Wahrscheinlichkeit bei 95 %. Patienten mit alten Thromben profitieren bezogen auf die Auflösung von Thromben nicht von einer Therapie mit Phenprocoumon. / Background. Non-invasive echocardiographic differentiation between old and fresh left ventricular intracavitary thrombi after myocardial infarction would be of clinical importance for estimating the risk of systemic embolisation and thus, the need of anticoagulation. Methods. Between 2007 and 2009, 52 patients (41-87 years old) with echocardiographic documented LV thrombus after myocardial infarction were included in this two parted study: In the first part, 10 patients, each with a definite diagnosis of fresh or old thrombus, were included. In the second part, 32 consecutive patients with an incident thrombus after myocardial infarction detected by echocardiography (unknown thrombus age) were included and followed for 6 months with administration of Phenprocoumon throughout follow up. Data on medical history, standard echocardiography, strain-rate-imaging and magnetic resonance tomography were analyzed in all patients. Results. In part 1study, analysis of thrombus deformation revealed that the most rapid change in strain occurred in the isovolumetric relaxation period during rapid decreased cavity pressure. Fresh (thrombus age-range: 5-27 days) and old thrombus (thrombus age-range: 4-26 months) could be clearly differentiated by peak strain-rate during isovolumetric relaxation period without overlap (cut off value 1 s-1). In part 2 study, 17 thrombi were classified as “echocardiographically fresh” (=strain-rate>1 s-1) and 15 as “echocardiographically old”. After six month follow-up, 16 of the 17 thrombi disapperead in the fresh thrombi group (94%) and the remaining one thrombus size was diminished by more than 50% (presenting strain-rate pattern of an old thrombus). In contrast, 14 out of the 15 thrombi could be documented during follow up in the old thrombus group. In addition, the thrombus stiffness was calculated by an approximation of Hooke’s law in 16patients with mitral insufficiency: E=dP/dtMIN/SR (dP/dtMIN derived from mitral insufficiency), stiffness was significantly positively correlated with thrombus age (r=0.79; p<0.001). Conclusion. Fresh and old intracavitary thrombi can be reliably differentiated by deformation-imaging. Moreover, in fresh thrombi Phenprocoumon results in thrombus resolution in most patients.
184

Mosquito popper: a multiplayer online game for 3D human body scan data segmentation

Nolte, Zachary 01 May 2017 (has links)
Game with a purpose (GWAP) is a concept that aims to utilize the hours spent in the world playing video games by everyday people to yield valuable data. The main objective of this research is to prove the feasibility of using the concept of GWAP for the segmentation and labeling of massive amount of 3D human body scan data. The rationale behind using GWAP as a method for mesh segmentation and labeling is that the current methods use expensive, time consuming computational algorithms to accomplish this task. Furthermore, the computer algorithms are not as detailed and specific as what natural human ability can achieve in segmentation tasks. The method presented in this paper overcomes the shortcomings of computer algorithms by introducing the concept of GWAP for human model segmentation. The actual process of segmenting and labeling the mesh becomes a form of entertainment rather than a tedious process, from which segmentation data is produced as a bi-product. In addition, the natural capabilities of the human visual processing systems are harnessed to identify and label various parts of the 3D human body shape, which in turn gives more details and specificity in segmentation. The effectiveness of the proposed game play mechanism is proven by experiments conducted in this study.
185

Radiotherapy X-ray dose distribution beneath retracted patient compensators

Piyaratna, Nelson, University of Western Sydney, Nepean, Faculty of Science and Technology January 1995 (has links)
Computer designed missing tissue and dose compensators have been produced and dosimetrically tested under a linear accelerator 6MV X-ray beam. Missing tissues compensators were developed to correct for patient external contour change only. Target dose compensators were developed to achieve a uniform dose throughout the target volume. With compensators present in the beam, data acquisition was repeated in a water phantom and an Anthropomorphic phantom. Clinically acceptable dose uniformity was achieved within these phantoms. For external contour compensation flat isodose curves were obtained giving an even dose in the region of interest. The dose difference found was within plus/minus 3% only. For the phantoms containing inhomogeneities dose uniformity to target volume was achieved within plus/minus 7%. Prediction of radiation dose was made using a GE Target Series 2 Treatment Planning Computer for each of the phantoms. Validation of the computer predicted dose was carried out using diode and TLD measurements. The measured data in the water tank was consistent with the computer data within plus/minus 2% for external contour changes and for inhomogeneities. The TLD measured results in the anthropomorphic phantom agreed with the planning computer results within 6%. Up to 4% of the difference is explainable due to supra-linearity and scatter effects / Master of Science (Hons) (Physics)
186

REDUCTION DE PUISSANCE DURANT LE TEST PAR SCAN DES CIRCUITS INTEGRES

Badereddine, Nabil 15 September 2006 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la réduction de la consommation de puissance durant le test par scan des circuits intégrés. Le test par scan est une technique de conception en vue du test qui est largement utilisée, mais qui pose quelques problèmes. Elle nécessite en effet un nombre important de cycles d'horloge pour permettre le chargement, l'application, et le déchargement des données de test. Ces opérations engendrent une activité de commutation dans le circuit largement plus importante que celle rencontrée lors du fonctionnement normal. Cette forte activité lors du test peut avoir des conséquences graves sur le circuit telles qu'une baisse de sa fiabilité ou sa destruction pure et simple. L'objectif de cette thèse est de proposer des techniques permettant de réduire cette suractivité, en particulier durant la période comprise entre l'application d'un vecteur de test et la récupération de la réponse du circuit.
187

Développement d'un système de scan automatique pour la détection des particules chargées dans OPERA et séparation des pions/muons de basse énergie

Royole-Degieux, P. 12 July 2005 (has links) (PDF)
L'expérience OPERA (Oscillation Project with Emulsion t-Racking Apparatus) se propose de vérifier les résultats de Super-Kamiokande, tout en détectant l'apparition de neutrino tau dans un faisceau originellement "pur" en neutrino muonique, révélée par la topologie caractéristique de la désintégration du tau. La cible d'OPERA est constituée de murs de briques qui sont une alternance de feuilles de plomb et d'émulsions. Les émulsions sont des trajectographes de grande précision (~1 micron) qui vont être utilisés en masse lors de l'expérience et leur analyse nécessite un système de scan automatisé dédié. Tout d'abord, cette thèse a consisté en la participation à la mise en place du premier laboratoire de scan en France. La précision obtenue est conforme aux exigences de l'expérience et la rapidité demandée sera atteinte dans quelques mois. Ensuite, la séparation des pions et des muons à basse énergie a étudiée. Les premiers résultats, montrant la possibilité d'une telle séparation, ont été exposés. Enfin, un programme de reconstruction de ces particules en fin de parcours a été développé et testé, tenant compte des performances de scan auparavant étudiées.
188

Détection de courts segments inversés dans les génomes - méthodes et applications

Robelin, David 27 September 2005 (has links) (PDF)
L'inversion de courts segments (moins de 1000 bases) est soupçonnée être un mécanisme majeur de l'évolution des génomes. Deux méthodes de détection ab initio de tels segments sont présentées. La séquence est modélisée par une chaîne de Markov $X^+$. La séquence inverse-complémentaire est alors également modélisée par une chaîne de Markov note $X^-$. Le premier chapitre présente de façon didactique les modèles de Markov utilisés en analyse de séquences génomiques. Une généralisation au cas d'un ordre supérieur à 1 d'un résultat sur la vitesse de convergence vers la distribution stationnaire est également établie. Le deuxième chapitre est consacré à l'étude du score local : $H_(n)=\max_(1\leq i \leq j \leq n)(Y_i+...+Y_j)$, pour une séquence $(Y_1,...,Y_n) \in \R^n$. La loi jointe asymptotique des $r$ plus grandes valeurs de score local est établie à l'aide de la théorie des valeurs extrêmes. Enfin, une démarche de test multiple permettant de choisir $r$ est proposée. Le troisième chapitre propose une statistique de détection fondée sur un rapport de vraisemblance (modèle $X^+$ contre modèle $X^-$) lorsque la longueur du segment retourné est connue. Une approche de type ``fenêtre glissante'' est ensuite appliquée. Une approximation connue de la loi du maximum de ce type de statistique est utilisée pour associer un degré de signification aux segments détectés. Dans le quatrième chapitre, le cas de recherche de segments de longueurs inconnues est traité à l'aide d'une méthode de type score local. Le cinquième chapitre présente l'application de ces méthodes à quelques génomes viraux. Un logiciel développé pour traiter cette problématique est également présenté.
189

Modélisation du rayonnement électromagnétique des dispositifs électroniques pour des applications CEM

Fernandez-Lopez, Priscila 11 January 2011 (has links) (PDF)
Cette thèse effectuée au sein de l'IRSEEM s'inscrit dans le cadre du projet EPEA (EMC Platform for Embedded Applications) du pôle de compétitivité Aerospace Valley. L'objectif de ces travaux est le développement de méthodologies de modélisation des émissions rayonnées de composants électroniques. Les modèles doivent être génériques (i.e. applicable à toute sorte de composant), d'obtention facile et insérables dans des outils de simulation électromagnétique commerciaux. Un modèle capable de prédire les champs électrique et magnétique dans le demi-espace au-dessus d'un dispositif est développé dans un premier temps. Il est basé sur un réseau de sources équivalentes de type dipôles électrique et magnétique. Deux inversions de matrices au sens des moindres carrées permettent leur détermination. Le modèle est caractérisé en termes de robustesse vis-à-vis de perturbations dans les données d'entrée et est ensuite appliqué à plusieurs circuits (passifs et actifs) avec de bons résultats. L'insertion des modèles dans des simulateurs commerciaux est possible grâce à une réduction du nombre de sources. Ce modèle est ensuite utilisé pour deux applications CEM : tout d'abord, la prédiction du couplage entre un dispositif agresseur et une ligne de transmission par deux procédures différentes : une analytique et une seconde numérique, puis la prédiction des champs lointains. Finalement, une nouvelle méthode de modélisation pour recréer les champs électrique et magnétique dans l'espace entourant le dispositif est proposée et validée sur des cas simples.
190

Études de l'absorption à deux photons dans des matériaux organiques à l'aide de la technique dite de la lentille thermique

Taouri, Abdelillah 21 December 2009 (has links) (PDF)
Ce travail concerne la mise en oeuvre de la technique de la « lentille thermique » pour l'étude des phénomènes d'absorptions multiphotoniques dans les matériaux organiques. La technique de la lentille thermique utilisée ici, est dans son principe une technique pompe-sonde où le faisceau pompe provient d'un laser pulsé (25ps, 532nm ou 1064nm) tandis que le faisceau sonde est issu d'un laser continu (He-Ne : 632nm). Cette technique s'apparente aussi à la technique de z-scan dans la mesure où l'échantillon est déplacé de part et d'autre du point focal d'une lentille convergente disposée sur le trajet du faisceau pompe. Selon le rapport des diamètres des faisceaux pompe et sonde, on distingue deux variantes principales de la technique de la lentille thermique en régime pulsé : la variante dite en « modes accordés » (les diamètres des deux faisceaux sont identiques) et la variante en « modes désaccordés » (les diamètres des deux faisceaux sont différents). Pour des raisons de simplicité de mise en oeuvre et de sensibilité, nous avons choisi la variante en modes désaccordés. Cette variante de la technique de la lentille thermique, ayant été peu utilisée jusque là, a été utilisée pour mesurer le coefficient et la section efficace de l'absorption à deux photons dans différents matériaux organiques. Ces résultats sont comparés à d'autres mesures provenant de technique de mesure plus connue comme « transmission non linéaire » ou la technique de z-scan.

Page generated in 0.0289 seconds