• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 548
  • 94
  • 93
  • 91
  • 30
  • 22
  • 17
  • 15
  • 14
  • 12
  • 12
  • 9
  • 9
  • 8
  • 5
  • Tagged with
  • 1125
  • 419
  • 167
  • 149
  • 114
  • 108
  • 105
  • 94
  • 86
  • 85
  • 83
  • 71
  • 70
  • 64
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
661

A comparative analysis of the low voter turnout in 2006 and 2011 municipal elections: Lukhanji municipality

Jakuja, Noxolo January 2015 (has links)
The aim of this study was to conduct a comparative analysis of the low voter turnout of the 2006 and 2011 municipal elections in Lukhanji Municipality. The study came as a result of the researcher’s observations of the low voter turnout during the 2011 municipal elections across the country. Upon further investigation, it was discovered that the previous municipal election of 2006 also experienced low voter turnout. However, this was not the case with national and provincial elections, because since the first election that took place in 1994, voter turnout has been high. Lukhanji Municipality, which is the area of residence for the researcher, was no different from the rest of South Africa, when it comes to low voter turnout for the municipal elections and high voter turnout for national and provincial elections. It was noted that there has never been a detailed research study conducted in Lukhanji Municipality regarding the subject in question, and also that there is a limited amount of literature that seeks to investigate voter turnout in local elections in South Africa. The large amount of available literature focuses on voter turnout during national and provincial elections in established democracies. The literature review extensively explored the determinants of voter turnout in all levels of elections. From those tested elsewhere, it was evident that no single factor can be the cause of low voting during an election, therefore it was fundamental to investigate the causes of low voter turnout of the municipal elections with special focus on Lukhanji Municipality. It became evident from the study, that indeed various factors may have led to low voter turnout during 2006 and 2011 municipal elections in Lukhanji Municipality.
662

Mise en correspondance inter-individus pour la prédiction de la toxicité en radiothérapie du cancer de la prostate / Inter-individual mapping for the prediction of toxicity following prostate cancer radiotherapy

Dréan, Gaël 17 June 2014 (has links)
Ces travaux de thèse s’inscrivent dans le contexte de la prédiction de la toxicité en radiothérapie du cancer de la prostate. Dans l'objectif d'analyser les corrélations spatiales entre la dose et les effets secondaires cette problématique est abordée dans un cadre d'analyse de population. La mise en correspondance inter-individus de l'anatomie et de la distribution de dose planifiée soulève des difficultés liées aux fortes variabilités anatomiques et au faible contraste des images CT considérées. Nous avons envisagé différentes stratégies de recalage non-rigide exploitant les informations relatives aux structures anatomiques, aux combinaisons intensité-structure, ou aux relations inter-structures. Les méthodes proposées s'appuient notamment sur l’utilisation de descripteurs structurels des organes tels que les cartes de distances euclidiennes ou du champ scalaire solution de l’équation de Laplace. Ces méthodes ont permis d'améliorer significativement la précision de la mise en correspondance, tant au niveau anatomique que dosimétrique. Les plus performantes ont été utilisées pour analyser une population de 118 individus. Les comparaisons statistiques des distributions de dose entre les patients souffrant ou non de saignements rectaux ont permis d’identifier une sous-région du rectum où la dose semble corrélée à la toxicité. La sous-région rectale identifiée apparaît potentiellement impliquée et hautement prédictive du risque de saignement. L'approche proposée permet d’améliorer les performances des modèles mathématiques de prédiction de la toxicité. / This thesis deals with the issue of predicting the toxicity within the context of prostate cancer radiotherapy. With the aim of analyzing the spatial correlations between dose and side effects, this problem is addressed in a population analysis framework. Inter-individual matching of both the anatomy and planned dose distribution raises difficulties related to high anatomical variability and low contrast in the CT images. We considered different strategies for non-rigid registration involving the use of information on anatomical structures, intensity-structure combinations, or inter-structures relations. The proposed methods are primarily based on the use of structural descriptors of organs such as Euclidean distance maps or scalar field solution of the Laplace equation. These methods allowed us to significantly improve the accuracy of the matching, at both the dosimetric and the anatomical level. The most accurate matching strategy has been used for analyzing a population of. Statistical comparisons of dose distributions between patients with or without rectal bleeding have been used to identify a rectal sub-region likely correlated with toxicity. The identified rectal sub-region appears potentially involved in side effects and highly predictive of the risk of bleeding. The proposed approach makes it possible to improve the performance of mathematical models for predicting the toxicity.
663

Using image-based large-eddy simulations to investigate the intracardiac flow and its turbulent nature / Utilisation de simulations aux grandes échelles à partir d'images médicales pour l'étude de l'écoulement intracardiaque et de sa nature turbulente

Chnafa, Christophe 21 November 2014 (has links)
Le premier objectif de cette thèse est de générer et d'analyser une base de données pour l'écoulement intracardiaque dans des géométries réalistes. Dans ce but, une stratégie couplant simulation numérique et imagerie médicale est appliquée à un cœur gauche pathologique et à un cœur gauche sain. Le second objectif est d'illustrer comment cette base de données peut être analysée afin de mieux comprendre l'écoulement intracardiaque, en portant une attention particulière aux caractéristiques instationnaires de l'écoulement et à sa nature turbulente. Une chaîne numérique pour simuler l'écoulement dans des géométries spécifiques au patient est tout d'abord présentée. La cavité cardiaque et ses mouvements sont extraits à partir d'images médicales à l'aide d'un algorithme de recalage d'image afin d'obtenir le domaine de calcul. Les équations qui régissent l'écoulement sont écrites dans le cadre d'un maillage se déformant au cours du temps (approche arbitrairement Lagrangienne ou Eulérienne). Les valves cardiaques sont modélisées à l'aide de frontières immergées. L'application de cette chaîne numérique à deux cœurs gauches, l'un pathologique, l'autre sain est ensuite détaillée. L'écoulement sanguin est caractérisé par sa nature transitoire, donnant un écoulement complexe et cyclique. Il est montré que l'écoulement n'est ni laminaire, ni pleinement turbulent, justifiant a posteriori l'utilisation de simulation aux grandes échelles. Le développement instationnaire de la turbulence est analysé à l'aide de l'écoulement moyenné sur un nombre suffisant de cycles cardiaques. Les statistiques de l'écoulement, l'énergie turbulente, la production de turbulence et une analyse spectrale sont notamment présentées. Une étude Lagrangienne est aussi effectuée en utilisant des statistiques calculées à l'aide de particules ensemencées dans l'écoulement. En plus des caractéristiques habituellement rapportées, ce travail met en évidence le caractère perturbé et transitoire de l'écoulement, tout en identifiant les mécanismes de production de la turbulence. / The first objective of this thesis is to generate and analyse CFD-based databases for the intracardiac flow in realistic geometries. To this aim, an image-based CFD strategy is applied to both a pathological and a healthy human left hearts. The second objective is to illustrate how the numerical database can be analysed in order to gain insight about the intracardiac flow, mainly focusing on the unsteady and turbulent features. A numerical framework allowing insight in fluid dynamics inside patient-specific human hearts is first presented. The heart cavities and their wall dynamics are extracted from medical images, with the help of an image registration algorithm, in order to obtain a patient-specific moving numerical domain. Flow equations are written on a conformal moving computational domain, using an Arbitrary Lagrangian-Eulerian framework. Valves are modelled using immersed boundaries.Application of this framework to compute flow and turbulence statistics in both a realistic pathological and a realistic healthy human left hearts is presented. The blood flow is characterized by its transitional nature, resulting in a complex cyclic flow. Flow dynamics is analysed in order to reveal the main fluid phenomena and to obtain insights into the physiological patterns commonly detected. It is demonstrated that the flow is neither laminar nor fully turbulent, thus justifying a posteriori the use of Large Eddy Simulation.The unsteady development of turbulence is analysed from the phase averaged flow, flow statistics, the turbulent stresses, the turbulent kinetic energy, its production and through spectral analysis. A Lagrangian analysis is also presented using Lagrangian particles to gather statistical flow data. In addition to a number of classically reported features on the left heart flow, this work reveals how disturbed and transitional the flow is and describes the mechanisms of turbulence production.
664

Multimodal image registration in 2D and 3D correlative microscopy / Recalage d'images multimodales en microscopie corrélative 2D et 3D

Toledo Acosta, Bertha Mayela 23 May 2018 (has links)
Cette thèse porte sur la définition d'un schéma de recalage automatique en microscopie corrélative 2D et 3D, en particulier pour des images de microscopie optique et électronique (CLEM). Au cours des dernières années, la CLEM est devenue un outil d'investigation important et puissant dans le domaine de la bio-imagerie. En utilisant la CLEM, des informations complémentaires peuvent être collectées à partir d'un échantillon biologique. La superposition des différentes images microscopiques est généralement réalisée à l'aide de techniques impliquant une assistance manuelle à plusieurs étapes, ce qui est exigeant et prend beaucoup de temps pour les biologistes. Pour faciliter et diffuser le procédé de CLEM, notre travail de thèse est axé sur la création de méthodes de recalage automatique qui soient fiables, faciles à utiliser et qui ne nécessitent pas d'ajustement de paramètres ou de connaissances complexes. Le recalage CLEM doit faire face à de nombreux problèmes dus aux différences entre les images de microscopie électronique et optique et leur mode d'acquisition, tant en termes de résolution du pixel, de taille des images, de contenu, de champ de vision et d'apparence. Nous avons conçu des méthodes basées sur l'intensité des images pour aligner les images CLEM en 2D et 3D. Elles comprennent plusieurs étapes : représentation commune des images LM et EM à l'aide de la transformation LoG, pré-alignement exploitant des mesures de similarité à partir d'histogrammes avec une recherche exhaustive, et un recalage fin basé sur l'information mutuelle. De plus, nous avons défini une méthode de sélection robuste de modèles de mouvement, et un méthode de détection multi-échelle de spots, que nous avons exploitées dans le recalage CLEM 2D. Notre schéma de recalage automatisé pour la CLEM a été testé avec succès sur plusieurs ensembles de données CLEM réelles 2D et 3D. Les résultats ont été validés par des biologistes, offrant une excellente perspective sur l'utilité de nos développements. / This thesis is concerned with the definition of an automated registration framework for 2D and 3D correlative microscopy images, in particular for correlative light and electron microscopy (CLEM) images. In recent years, CLEM has become an important and powerful tool in the bioimaging field. By using CLEM, complementary information can be collected from a biological sample. An overlay of the different microscopy images is commonly achieved using techniques involving manual assistance at several steps, which is demanding and time consuming for biologists. To facilitate and disseminate the CLEM process for biologists, the thesis work is focused on creating automatic registration methods that are reliable, easy to use and do not require parameter tuning or complex knowledge. CLEM registration has to deal with many issues due to the differences between electron microscopy and light microscopy images and their acquisition, both in terms of pixel resolution, image size, content, field of view and appearance. We have designed intensity-based methods to align CLEM images in 2D and 3D. They involved a common representation of the LM and EM images using the LoG transform, a pre-alignment step exploiting histogram-based similarities within an exhaustive search, and a fine mutual information-based registration. In addition, we have defined a robust motion model selection method, and a multiscale spot detection method which were exploited in the 2D CLEM registration. Our automated CLEM registration framework was successfully tested on several real 2D and 3D CLEM datasets and the results were validated by biologists, offering an excellent perspective in the usefulness of our methods.
665

Amélioration de connectivité fonctionnelle par utilisation de modèles déformables dans l'estimation de décompositions spatiales des images de cerveau / Enhancement of functional brain connectome analysis by the use of deformable models in the estimation of spatial decompositions of the brain images.

Dohmatob, Elvis 26 September 2017 (has links)
Cartographier la connectivité fonctionnelle du cerveau à partir des donnés d'IRMf est devenu un champ de recherche très actif. Cependant, les outils théoriques et pratiques sont limités et plusieurs tâches importantes, telles que la définition empirique de réseaux de connexion cérébrale, restent difficiles en l’absence d'un cadre pour la modélisation statistique de ces réseaux. Nous proposons de développer au niveau des populations, des modèles joints de connectivité anatomique et fonctionnelle et l'alignement inter-sujets des structures du cerveau. Grâce à une telle contribution, nous allons développer des nouvelles procédures d'inférence statistique afin de mieux comparer la connectivité fonctionnelle entre différents sujets en présence du bruit (bruit scanner, bruit physiologique, etc.). / Mapping the functions of the human brain using fMRI data has become a very active field of research. However, the available theoretical and practical tools are limited and many important tasks like the empirical definition of functional brain networks, are difficult to implement due to lack of a framework for statistical modelling of such networks. We propose to develop at the population level, models that jointly perform estimation of functional connectivity and alignment the brain data across the different individuals / subjects in the population. Building upon such a contribution, we will develop new methods for statistical inference to help compare functional connectivity across different individuals in the presence of noise (scanner noise, physiological noise, etc.).
666

Precise localization in 3D prior map for autonomous driving / Localisation d'un véhicule autonome à partir d'une carte a priori de points 3D

Tazir, Mohamed Lamine 17 December 2018 (has links)
Les véhicules autonomes, qualifiés aussi de véhicules sans conducteur, deviennent dans certains contextes une réalité tangible et partageront très bientôt nos routes avec d’autres véhicules classiques. Pour qu’un véhicule autonome se déplace de manière sécurisée, il doit savoir où il se trouve et ce qui l’entoure dans l’environnement. Pour la première tâche, pour déterminer sa position dans l’environnement, il doit se localiser selon six degrés de liberté (position et angles de rotation). Alors que pour la deuxième tâche, une bonne connaissance de cet environnement « proche » est nécessaire, ce qui donne lieu à une solution sous forme de cartographie. Par conséquent, pour atteindre le niveau de sécurité souhaité des véhicules autonomes, une localisation précise est primordiale. Cette localisation précise permet au véhicule non seulement de se positionner avec précision, mais également de trouver sa trajectoire optimale et d’éviter efficacement les collisions avec des objets statiques et dynamiques sur son trajet. Actuellement, la solution la plus répandue est le système de positionnement (GPS). Ce système ne permet qu’une précision limitée (de l’ordre de plusieurs mètres) et bien que les systèmes RTK (RealTime Kinematic) et DGPS (Differential GPS) aient atteint une précision bien plus satisfaisante, ces systèmes restent sensibles au masquage des signaux, et aux réflexions multiples, en particulier dans les zones urbaines denses. Toutes ces déficiences rendent ces systèmes inadaptés pour traiter des tâches critiques telles que l’évitement des collisions. Une alternative qui a récemment attiré l’attention des experts (chercheurs et industriels), consiste à utiliser une carte à priori pour localiser la voiture de l’intérieur de celui-ci. En effet, les cartes facilitent le processus de navigation et ajoutent une couche supplémentaire de sécurité et de compréhension. Le véhicule utilise ses capteurs embarqués pour comparer ce qu’il perçoit à un moment donné avec ce qui est stocké dans sa mémoire. Les cartes à priori permettent donc au véhicule de mieux se localiser dans son environnement en lui permettant de focaliser ses capteurs et la puissance de calcul uniquement sur les objets en mouvement. De cette façon, le véhicule peut prédire ce qui devrait arriver et voir ensuite ce qui se passe réellement en temps réel, et donc peut prendre une décision sur ce qu’il faut faire.Cette thèse vise donc à développer des outils permettant une localisation précise d’un véhicule autonome dans un environnement connu à priori. Cette localisation est déterminée par appariement (Map-matching) entre une carte de l’environnement disponible a priori et les données collectées au fur et à mesure que le véhicule se déplace. Pour ce faire, deux phases distinctes sont déployées. La première permet la construction de la carte, avec une précision centimétrique en utilisant des techniques de construction de cartes statiques ou dynamiques. La seconde correspond à la capacité de localiser le véhicule dans cette carte 3D en l’absence d’infrastructures dédiées comprenant le système GPS, les mesures inertielles (IMU) ou des balises.Au cours de ce travail, différentes techniques sont développées pour permettre la réalisation des deux phases mentionnées ci-dessus. Ainsi, la phase de construction de cartes, qui consiste à recaler des nuages de points capturés pour construire une représentation unique et unifiée de l’environnement, correspond au problème de la localisation et de la cartographie simultanée (SLAM). Afin de faire face à ce problème, nous avons testé et comparé différentes méthodes de recalage. Cependant, l’obtention de cartes précises nécessite des nuages de points très denses, ce qui les rend inefficaces pour une utilisation en temps réel. Dans ce contexte, une nouvelle méthode de réduction des points est proposée. (...) / The concept of self-driving vehicles is becoming a happening reality and will soon share our roads with other vehicles –autonomous or not-. For a self-driving car to move around in its environment in a securely, it needs to sense to its immediate environment and most importantly localize itself to be able to plan a safe trajectory to follow. Therefore, to perform tasks suchas trajectory planning and navigation, a precise localization is of upmost importance. This would further allow the vehicle toconstantly plan and predict an optimal path in order to weave through cluttered spaces by avoiding collisions with other agentssharing the same space as the latter. For years, the Global Positioning System (GPS) has been a widespread complementary solution for navigation. The latter allows only a limited precision (range of several meters). Although the Differential GPSand the Real Time Kinematic (RTK) systems have reached considerable accuracy, these systems remain sensitive to signal masking and multiple reflections, offering poor reliability in dense urban areas. All these deficiencies make these systems simply unsuitable to handle hard real time constraints such as collision avoidance. A prevailing alternative that has attracted interest recently, is to use upload a prior map in the system so that the agent can have a reliable support to lean on. Indeed,maps facilitate the navigation process and add an extra layer of security and other dimensions of semantic understanding. The vehicle uses its onboard sensors to compare what it perceives at a given instant to what is stored in the backend memory ofthe system. In this way, the autonomous vehicle can actually anticipate and predict its actions accordingly.The purpose of this thesis is to develop tools allowing an accurate localization task in order to deal with some complex navigation tasks outlined above. Localization is mainly performed by matching a 3D prior map with incoming point cloudstructures as the vehicle moves. Three main objectives are set out leading with two distinct phases deployed (the map building and the localization). The first allows the construction of the map, with centimeter accuracy using static or dynamic laser surveying technique. Explicit details about the experimental setup and data acquisition campaigns thoroughly carried outduring the course of this work are given. The idea is to construct efficient maps liable to be updated in the long run so thatthe environment representation contained in the 3D models are compact and robust. Moreover, map-building invariant on any dedicated infrastructure is of the paramount importance of this work in order to rhyme with the concept of flexible mapping and localization. In order to build maps incrementally, we rely on a self-implementation of state of the art iterative closest point (ICP) algorithm, which is then upgraded with new variants and compared to other implemented versions available inthe literature. However, obtaining accurate maps requires very dense point clouds, which make them inefficient for real-time use. Inthis context, the second objective deals with points cloud reduction. The proposed approach is based on the use of both colorinformation and the geometry of the scene. It aims to find sets of 3D points with the same color in a very small region and replacing each set with one point. As a result, the volume of the map will be significantly reduced, while the proprieties of this map such as the shape and color of scanned objects remain preserved.The third objective resort to efficient, precise and reliable localization once the maps are built and treated. For this purpose, the online data should be accurate, fast with low computational effort whilst maintaining a coherent model of the explored space. To this end, the Velodyne HDL-32 comes into play. (...)
667

Democracy of Death: US Army Graves Registration and Its Burial of the World War I Dead

Hatzinger, Kyle 08 1900 (has links)
The United States entered World War I without a policy governing the burial of its overseas dead. Armed only with institutional knowledge from the Spanish-American War twenty years prior, the Army struggled to create a policy amidst social turmoil in the United States and political tension between France and the United States.
668

Identifikace a hodnocení preferencí zákazníků u vybraného produktu / Identification and evaluation of customer preferences for selected product

Tůma, Milan January 2019 (has links)
Finding customer preferences when deciding about buying a tractor in the 201-300 horsepower category. Attributes will be gained through questionnaire survey, and will be used in the QFD method, where there will also be comparison of major competitors in a given market segment. The evaluation of tractors will also include the voice of the customer, gained from KANO model. KANO model will be second survey that will be used in this thesis. The conclusion is to build an ideal tractor structure that matches the customer's wishes.
669

Strojové učení pro analýzu MR obrazů mozku / Machine learning for analysis of MR images of brain

Král, Jakub January 2010 (has links)
The thesis is focused on methods of machine learning used for recognising the first stage of schizophrenia in images from nuclear-magnetic resonance. The introduction of this paper is focused primarily on physical principles. Further in this work, the attention is given to registration methods, reduction of data set and machine learning. In the classification part, simmilarity rates, support vectors´ method, K-nearest neighbour classification and K-means are described. The last stage of theoretical part is focused on evaluation of the clasification. In practical part the results of reduction data set by methods PCA, CRLS-PCA and subjects PCA are described. Furthermore, the practical part is focused on pattern recognition by methods K-NN, K-means and test K-NN method on real data. Abnormalities which are recognised by some classification methods can distinguish patients with schizophrenia from healthy controls.
670

Neuroinformatika: metody kalibrace v multicentrické MR studii / Neuroinformatics: calibration methods in multicentric MR studies

Kovalčík, Tomáš January 2010 (has links)
Work deals with methods of calibration of multi-center study of magnetic resonance imaging. Magnetic resonance is the phenomenon of the substance in a magnetic field of induction B0 delivers energy in the form of RF pulse with the Larmor frequency and thus to excite particles to higher energy levels. Calibration can be performed using the distinctive and homogeneous RF phantoms. Furthermore, we can perform calibration using image registration. To calibrate the images by registering the work described in the classical linear (affine) and nonlinear. Listed below are the simulators, which are also useful for modeling various artifacts.

Page generated in 0.119 seconds