• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 56
  • 12
  • 11
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 206
  • 59
  • 59
  • 57
  • 53
  • 35
  • 35
  • 34
  • 32
  • 31
  • 30
  • 26
  • 22
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Risk Contours for RemoteOperations Centres forMaritime AutonomousSurface Ships / Risk­konturer för landbaserad övervakningav autonoma marina fartyg

Baldhagen, Andreas, Lindström, Jonas January 2022 (has links)
To monitor and control maritime autonomous surface ships in a land­based remote operations centre leads to several advantages compared to today when a whole crew is needed on board. For example, less humans would be required to control the same amount of ships, less personnel would be required to live or stay on the ship for a longtime and risk being injured or die in accidents or storms. To facilitate and ease a remote operators work, a risk contour could be a valuable tool and utility. A risk contour is a visual tool on the user interface used by the remote operator and illustrates an area around the ship. When a risk contour collides with another objector another risk contour, a warning notifies the operator of a dangerous situation. In case the operator has multiple monitors, the warning informs the operator to focus on the concerned monitor and Maritime Autonomous Surface Ship (MASS). In this project, risk contours have been researched through a background study, literature study and a case study. In the case study the risk contours were tested in a simulation environment by experienced test persons in the field. The test data was analysed and the opinion of the testers were gathered through simulations and reviewed with questions. The data from the testing showed that the risk contour affected the tester by increasing their risk awareness by increasing distances to other objects or ships and made them act earlier in riskful situations. The feedback from the simulation and the interviews regarding the proposed risk contour was overwhelmingly positive. Understanding the risk contour and the changed risk contour in the different scenarios were highly rated on scales from the participants. The conclusions from the thesis were that wind and currents are the two most relevant factors when studying environmental factors affecting the position of a MASS. The conclusion about which mechanical system was the most relevant, and will affect the risk contour the most when the system has reduced function, was concluded to be the rudder. The study shows that the risk contour for the MASS should be directed towards the relative course over ground when affected by wind and currents. The study also shows that the risk contour should remain the same but be extended when the vesselis affected by reduced manoeuvring ability. Lastly, conclusions about the results from the case study, were that the risk contour both is useful and helpful for the participants. / Att övervaka marina autonoma ytfartyg i en landbaserad fjärroperationcentral och kontrollera dem medför många fördelar i stället för att som idag behöva en hel besättning ombord. Att ha en operatör som övervakar flera fartyg medför många fördelar. Till exempel skulle, färre antal personer krävas för att styra samma antal fartyg samt färre personal vara tvungna att bo på fartyget i långa perioder och riskera att skadas eller avlida i olyckor eller oväder. För att underlätta och stödja övervakning av autonoma ytfartyg kan en risk­-kontur vara ett verktyg och hjälpmedel. En risk-­kontur är ett visuellt verktyg för fjärroperatören och illustrerar ett område runt omkring skeppet. När en risk­kontur kolliderar med ett annat föremål eller en annan risk­kontur, varnas operatören. Om operatören har flera monitorer, ger varningen en indikation om vilken monitor som operatören bör fokusera på. I detta projekt har risk­-konturer undersökts genom en bakgrunds-­, en litteratur-och en fallstudie. Fallstudien bestod av intervjuer med ett antal experter som därutöver fick agera testpersoner i en simuleringsmiljö med risk-konturer. Datan ifråntestningen visade att risk­konturen påverkade testoperatören genom att öka deras riskmedvetenhet och öka avstånd till andra skepp samt agera tidigare i riskfyllda situationer. Feedbacken från simuleringen och den föreslagna formen på risk-­konturen var överväldigande positiv. Risk­-konturen var lätt att förstå och den förändrade risk-konturen i olika scenarier fick högt betyg från deltagarna. Slutsatserna blev att vind och strömmar är de två mest relevanta faktorer när man studerar miljöfaktorer som påverkar positionen för ett marint autonomt ytfartyg direkt. Slutsatsen om vilket mekaniskt system som är det mest relevanta och därför kommer att påverka risk­konturen mest när systemet har reducerad förmåga visade sig vara roder­systemet. Studien visar att risk­-konturen för fartyget bör vara i riktning med den relativa kursen över grund när fartyget påverkas av vind och strömmar. Dessutom visar studien att risk­-konturen ska förbli samma form men förlängas när fartyget påverkas av reducerad manövreringsförmåga. Slutligen var slutsatserna om resultaten från fallstudien att risk­konturen både är användbar och till hjälp för deltagarna.
192

Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux / A general non-stationarity measure : Application to biomedical image and signal processing

Xu, Yanli 04 October 2013 (has links)
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes. / The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers.
193

Segmentation, suivi et visualisation d'objets biologiques en microscopie 3D par fluorescence : Approches par modèles déformables

Dufour, Alexandre 04 December 2007 (has links) (PDF)
Nous nous intéressons à la détection et au suivi d'objets biologiques divers (cellules, noyaux, etc.) dans des images et séquences tri-dimensionnelles acquises en microscopie par fluorescence. L'observation de phénomènes biologiques in situ étant de plus en plus cruciale pour les experts, il est nécessaire, en plus de l'analyse quantitative, d'effectuer un rendu volumique 3D de la scène et des objets qui y évoluent. De plus, l'automatisation des techniques d'acquisition d'images requiert un haut niveau de reproductibilité des algorithmes et induit souvent des contraintes de temps de calcul que nous nous efforçons de prendre en compte.<br /><br />Les modèles déformables, également connus sous le nom de contours actifs, font actuellement partie des méthodes de pointe en analyse d'images pour la segmentation et le suivi d'objets grâce à leur robustesse, leur flexibilité et leur représentation à haut niveau sémantique des entités recherchées. Afin de les adapter à notre problématique, nous devons faire face à diverses difficultés. Tout d'abord, les méthodes existantes se réfèrent souvent aux variations locales d'intensité (ou gradients) de l'image pour détecter le contour des objets recherchés. Cette approche est inefficace en microscopie tridimensionnelle par fluorescence, où les gradients sont très peu prononcés selon l'axe de profondeur de l'image. Ensuite, nous devons gérer le suivi d'objets multiples susceptibles d'entrer en contact en évitant leur confusion. Enfin, nous devons mettre en place un système permettant de visualiser efficacement les contours durant leur déformation sans altérer les temps de calcul.<br /><br />Dans la première partie de ce travail, nous pallions à ces problèmes en proposant un modèle de segmentation et de suivi multi-objets basé sur le formalisme des lignes de niveaux (ou level sets) et exploitant la fonctionnelle de Mumford et Shah. La méthode obtenue donne des résultats quantitatifs satisfaisants, mais ne se prête pas efficacement au rendu 3D de la scène, pour lequel nous sommes tributaires d'algorithmes dédiés à la reconstruction 3D (e.g. la méthode des "Marching Cubes"), souvent coûteux en mémoire et en temps de calcul. De plus, ces algorithmes peuvent induire des erreurs d'approximation et ainsi entraîner une mauvaise interprétation des résultats.<br /><br />Dans la seconde partie, nous proposons une variation de la méthode précédente en remplaçant le formalisme des lignes de niveaux par celui des maillages triangulaires, très populaire dans le domaine de la conception assistée par ordinateur (CAO) pour leur rendu 3D rapide et précis. Cette nouvelle approche produit des résultats quantitatifs équivalents, en revanche le formalisme des maillages permet d'une part de réduire considérablement la complexité du problème et autorise d'autre part à effectuer un rendu 3D précis de la scène parallèlement au processus de segmentation, réduisant d'autant plus les temps de calculs.<br /><br />Les performances des deux méthodes proposées sont d'abord évaluées puis comparées sur un jeu de données simulées reproduisant le mieux possible les caractéristiques des images réelles. Ensuite, nous nous intéressons plus particulièrement à l'évaluation de la méthode par maillages sur des données réelles, en évaluant la robustesse et la stabilité de quelques descripteurs de forme simples sur des expériences d'imagerie haut-débit. Enfin, nous présentons des applications concrètes de la méthode à des problématiques biologiques réelles, réalisées en collaboration avec d'autres équipes de l'Institut Pasteur de Corée.
194

Roadmark reconstruction from stereo-images acquired by a ground-based mobile mapping system / Reconstruction de marquages routiers à partir d'images terrestres

Soheilian, Bahman 01 April 2008 (has links)
Malgré les récentes avancées des Systèmes de Cartographie Mobile, la reconstruction automatique d’objets à partir des données acquises est encore un point crucial. Dans cette thèse, nous nous intéresserons en particulier à la reconstruction tridimensionnelle du marquage au sol à partir d’images acquises sur le réseau routier par une base stéréoscopique horizontale d’un système de cartographie mobile, dans un contexte urbain dense. Une nouvelle approche s’appuyant sur la connaissance de la géométrie 3D des marquages au sol est présentée, conduisant à une précision de reconstruction 3D centimétrique avec un faible niveau de généralisation. Deux objets de la signalisation routière horizontale sont étudiés : les passages piétons et les lignes blanches discontinues. La stratégie générale est composée de trois grandes étapes. La première d’entre elles permet d’obtenir des chaînes de contours 3D. Les contours sont extraits dans les images gauche et droite. Ensuite, un algorithme reposant sur une optimisation par programmation dynamique est mis en oeuvre pour apparier les points de contours des deux images. Un post-traitement permet un appariement sub-pixellique, et, les chaînes de contours 3D sont finalement obtenues par une triangulation photogrammétrique classique. La seconde étape fait intervenir les spécifications géométriques des marquages au sol pour réaliser un filtrage des chaînes de contours 3D. Elle permet de déterminer des candidats pour les objets du marquage au sol. La dernière étape peut être vue comme une validation permettant de rejeter ou d’accepter ces hypothèses. Les candidats retenus sont alors reconstruits finement. Pour chaque bande d’un passage piéton ou d’une ligne discontinue, le modèle est un quasi-parallélogramme. Une contrainte de planéité est imposée aux sommets de chaque bande, ce qui n’est pas le cas pour l’ensemble des bandes formant un marquage au sol particulier. La méthode est évaluée sur un ensemble de 150 paires d’images acquises en centre ville dans des conditions normales de trafic. Les résultats montrent la validité de notre stratégie en terme de robustesse, de complétude et de précision géométrique. La méthode est robuste et permet de gérer les occultations partielles ainsi que les marquages usés ou abîmés. Le taux de détection atteint 90% et la précision de reconstruction 3D est de l’ordre de 2 à 4 cm. Finalement, une application de la reconstruction des marquages au sol est présentée : le géoréférencement du système d’acquisition. La majorité des systèmes de cartographie mobile utilisent des capteurs de géoréférencement direct comme un couplage GPS/INS pour leur localisation. Cependant, en milieu urbain dense, les masques et les multi-trajets corrompent les mesures et conduisent à une précision d’environ 50 cm. Afin d’améliorer la qualité de localisation, nous cherchons à apparier les images terrestres avec des images aériennes calibrées de la même zone. Les marquages au sol sont alors utilisés comme objets d’appariement. La validité de la méthode est démontrée sur un exemple de passage piéton / Despite advances in ground-based Mobile Mapping System (MMS), automatic feature reconstruction seems far from being reached. In this thesis, we focus on 3D roadmark reconstruction from images acquired by road looking cameras of a MMS stereo-rig in dense urban context. A new approach is presented, that uses 3D geometric knowledge of roadmarks and provides a centimetric 3D accuracy with a low level of generalisation. Two classes of roadmarks are studied: zebra-crossing and dashed-lines. The general strategy consists in three main steps. The first step provides 3D linked-edges. Edges are extracted in the left and right images. Then a matching algorithm that is based on dynamic programming optimisation matches the edges between the two images. A sub-pixel matching is computed by post processing and 3D linked-edges are provided by classical photogrammetric triangulation. The second step uses the known specification of roadmarks to perform a signature based filtering of 3D linked-edges. This step provides hypothetical candidates for roadmark objects. The last step can be seen as a validation step that rejects or accepts the candidates. The validated candidates are finely reconstructed. The adopted model consists of a quasi parallelogram for each strip of zebra-crossing or dashed-line. Each strip is constrained to be flat but the roadmark as a whole is not planar. The method is evaluated on a set of 150 stereo-pairs acquired in a real urban area under normal traffic conditions. The results show the validity of the approach in terms of robustness, completeness and geometric accuracy. The method is robust and deals properly with partially occluded roadmarks as well as damaged or eroded ones. The detection rate reaches 90% and the 3D accuracy is about 2-4 cm. Finally an application of reconstructed roadmarks is presented. They are used in georeferencing of the system. Most of the MMSs use direct georeferencing devices such as GPS/INS for their localisation. However in urban areas masks and multi-path errors corrupt the measurements and provide only 50 cm accuracy. In order to improve the localisation quality, we aim at matching ground-based images with calibrated aerial images of the same area. For this purpose roadmarks are used as matching objects. The validity of this method is demonstrated on a zebra-crossing example
195

Computer aided diagnosis of epilepsy lesions based on multivariate and multimodality data analysis / Recherche de biomarqueurs par l’analyse multivariée d’images paramétriques multimodales pour le bilan non-invasif préchirurgical de l’épilepsie focale pharmaco-résistante

El Azami, Meriem 23 September 2016 (has links)
Environ 150.000 personnes souffrent en France d'une épilepsie partielle réfractaire à tous les médicaments. La chirurgie, qui constitue aujourd’hui le meilleur recours thérapeutique nécessite un bilan préopératoire complexe. L'analyse de données d'imagerie telles que l’imagerie par résonance magnétique (IRM) anatomique et la tomographie d’émission de positons (TEP) au FDG (fluorodéoxyglucose) tend à prendre une place croissante dans ce protocole, et pourrait à terme limiter de recourir à l’électroencéphalographie intracérébrale (SEEG), procédure très invasive mais qui constitue encore la technique de référence. Pour assister les cliniciens dans leur tâche diagnostique, nous avons développé un système d'aide au diagnostic (CAD) reposant sur l'analyse multivariée de données d'imagerie. Compte tenu de la difficulté relative à la constitution de bases de données annotées et équilibrées entre classes, notre première contribution a été de placer l'étude dans le cadre méthodologique de la détection du changement. L'algorithme du séparateur à vaste marge adapté à ce cadre là (OC-SVM) a été utilisé pour apprendre, à partir de cartes multi-paramétriques extraites d'IRM T1 de sujets normaux, un modèle prédictif caractérisant la normalité à l'échelle du voxel. Le modèle permet ensuite de faire ressortir, dans les images de patients, les zones cérébrales suspectes s'écartant de cette normalité. Les performances du système ont été évaluées sur des lésions simulées ainsi que sur une base de données de patients. Trois extensions ont ensuite été proposées. D'abord un nouveau schéma de détection plus robuste à la présence de bruit d'étiquetage dans la base de données d'apprentissage. Ensuite, une stratégie de fusion optimale permettant la combinaison de plusieurs classifieurs OC-SVM associés chacun à une séquence IRM. Enfin, une généralisation de l'algorithme de détection d'anomalies permettant la conversion de la sortie du CAD en probabilité, offrant ainsi une meilleure interprétation de la sortie du système et son intégration dans le bilan pré-opératoire global. / One third of patients suffering from epilepsy are resistant to medication. For these patients, surgical removal of the epileptogenic zone offers the possibility of a cure. Surgery success relies heavily on the accurate localization of the epileptogenic zone. The analysis of neuroimaging data such as magnetic resonance imaging (MRI) and positron emission tomography (PET) is increasingly used in the pre-surgical work-up of patients and may offer an alternative to the invasive reference of Stereo-electro-encephalo -graphy (SEEG) monitoring. To assist clinicians in screening these lesions, we developed a computer aided diagnosis system (CAD) based on a multivariate data analysis approach. Our first contribution was to formulate the problem of epileptogenic lesion detection as an outlier detection problem. The main motivation for this formulation was to avoid the dependence on labelled data and the class imbalance inherent to this detection task. The proposed system builds upon the one class support vector machines (OC-SVM) classifier. OC-SVM was trained using features extracted from MRI scans of healthy control subjects, allowing a voxelwise assessment of the deviation of a test subject pattern from the learned patterns. System performance was evaluated using realistic simulations of challenging detection tasks as well as clinical data of patients with intractable epilepsy. The outlier detection framework was further extended to take into account the specificities of neuroimaging data and the detection task at hand. We first proposed a reformulation of the support vector data description (SVDD) method to deal with the presence of uncertain observations in the training data. Second, to handle the multi-parametric nature of neuroimaging data, we proposed an optimal fusion approach for combining multiple base one-class classifiers. Finally, to help with score interpretation, threshold selection and score combination, we proposed to transform the score outputs of the outlier detection algorithm into well calibrated probabilities.
196

Imagerie Mathématique: segmentation sous contraintes géométriques ~ Théorie et Applications

Le Guyader, Carole 09 December 2004 (has links) (PDF)
Dans cette thèse, nous nous intéressons à des problèmes de segmentation d'images sous contraintes géométriques. Cette problématique a émergé suite à l'analyse de plusieurs méthodes classiques de détection de contours qui a été faite. En effet, ces méthodes classiques (Modèles déformables, contours actifs géodésiques, 'fast marching', etc...) se révèlent caduques quand des données de l'image sont manquantes ou de mauvaise qualité. En imagerie médicale par exemple, des phénomènes d'occlusion peuvent se produire : des organes peuvent se masquer en partie l'un l'autre (ex du foie). Par ailleurs, deux objets qui se jouxtent peuvent posséder des textures intrinsèques homogènes si bien qu'il est difficile d'identifier clairement l'interface entre ces deux objets. La définition classique d'un contour qui est caractérisé comme étant le lieu des points connexes présentant une forte transition de luminosité ne s'applique donc plus. Enfin, dans certains contextes d'étude, comme en géophysique, on peut disposer en plus des doneées d'imagerie, de données géométriques à intégrer au processus de segmentation.<br /><br />Pour pallier ces difficultés, nous proposons ici des modèles de segmentation intégrant des contraintes géométriques et satisfaisant les critères classiques de détection avec en particulier la régularité sur le contour que cela implique.
197

Funcions densitat i semblança molecular quàntica: nous desenvolupaments i aplicacions

Gironés Torrent, Xavier 10 May 2002 (has links)
La present tesi, tot i que emmarcada dins de la teoria de les Mesures Semblança Molecular Quántica (MQSM), es deriva en tres àmbits clarament definits:- La creació de Contorns Moleculars de IsoDensitat Electrònica (MIDCOs, de l'anglès Molecular IsoDensity COntours) a partir de densitats electròniques ajustades.- El desenvolupament d'un mètode de sobreposició molecular, alternatiu a la regla de la màxima semblança.- Relacions Quantitatives Estructura-Activitat (QSAR, de l'anglès Quantitative Structure-Activity Relationships).L'objectiu en el camp dels MIDCOs és l'aplicació de funcions densitat ajustades, ideades inicialment per a abaratir els càlculs de MQSM, per a l'obtenció de MIDCOs. Així, es realitza un estudi gràfic comparatiu entre diferents funcions densitat ajustades a diferents bases amb densitats obtingudes de càlculs duts a terme a nivells ab initio. D'aquesta manera, l'analogia visual entre les funcions ajustades i les ab initio obtinguda en el ventall de representacions de densitat obtingudes, i juntament amb els valors de les mesures de semblança obtinguts prèviament, totalment comparables, fonamenta l'ús d'aquestes funcions ajustades. Més enllà del propòsit inicial, es van realitzar dos estudis complementaris a la simple representació de densitats, i són l'anàlisi de curvatura i l'extensió a macromolècules. La primera observació correspon a comprovar no només la semblança dels MIDCOs, sinó la coherència del seu comportament a nivell de curvatura, podent-se així observar punts d'inflexió en la representació de densitats i veure gràficament aquelles zones on la densitat és còncava o convexa. Aquest primer estudi revela que tant les densitats ajustades com les calculades a nivell ab initio es comporten de manera totalment anàloga. En la segona part d'aquest treball es va poder estendre el mètode a molècules més grans, de fins uns 2500 àtoms.Finalment, s'aplica part de la filosofia del MEDLA. Sabent que la densitat electrònica decau ràpidament al allunyar-se dels nuclis, el càlcul d'aquesta pot ser obviat a distàncies grans d'aquests. D'aquesta manera es va proposar particionar l'espai, i calcular tan sols les funcions ajustades de cada àtom tan sols en una regió petita, envoltant l'àtom en qüestió. Duent a terme aquest procés, es disminueix el temps de càlcul i el procés esdevé lineal amb nombre d'àtoms presents en la molècula tractada.En el tema dedicat a la sobreposició molecular es tracta la creació d'un algorisme, així com la seva implementació en forma de programa, batejat Topo-Geometrical Superposition Algorithm (TGSA), d'un mètode que proporcionés aquells alineaments que coincideixen amb la intuïció química. El resultat és un programa informàtic, codificat en Fortran 90, el qual alinea les molècules per parelles considerant tan sols nombres i distàncies atòmiques. La total absència de paràmetres teòrics permet desenvolupar un mètode de sobreposició molecular general, que proporcioni una sobreposició intuïtiva, i també de forma rellevant, de manera ràpida i amb poca intervenció de l'usuari. L'ús màxim del TGSA s'ha dedicat a calcular semblances per al seu ús posterior en QSAR, les quals majoritàriament no corresponen al valor que s'obtindria d'emprar la regla de la màxima semblança, sobretot si hi ha àtoms pesats en joc.Finalment, en l'últim tema, dedicat a la Semblança Quàntica en el marc del QSAR, es tracten tres aspectes diferents:- Ús de matrius de semblança. Aquí intervé l'anomenada matriu de semblança, calculada a partir de les semblances per parelles d'entre un conjunt de molècules. Aquesta matriu és emprada posteriorment, degudament tractada, com a font de descriptors moleculars per a estudis QSAR. Dins d'aquest àmbit s'han fet diversos estudis de correlació d'interès farmacològic, toxicològic, així com de diverses propietats físiques.- Aplicació de l'energia d'interacció electró-electró, assimilat com a una forma d'autosemblança. Aquesta modesta contribució consisteix breument en prendre el valor d'aquesta magnitud, i per analogia amb la notació de l'autosemblança molecular quàntica, assimilar-la com a cas particular de d'aquesta mesura. Aquesta energia d'interacció s'obté fàcilment a partir de programari mecanoquàntic, i esdevé ideal per a fer un primer estudi preliminar de correlació, on s'utilitza aquesta magnitud com a únic descriptor. - Càlcul d'autosemblances, on la densitat ha estat modificada per a augmentar el paper d'un substituent. Treballs previs amb densitats de fragments, tot i donar molt bons resultats, manquen de cert rigor conceptual en aïllar un fragment, suposadament responsable de l'activitat molecular, de la totalitat de l'estructura molecular, tot i que les densitats associades a aquest fragment ja difereixen degut a pertànyer a esquelets amb diferents substitucions. Un procediment per a omplir aquest buit que deixa la simple separació del fragment, considerant així la totalitat de la molècula (calcular-ne l'autosemblança), però evitant al mateix temps valors d'autosemblança no desitjats provocats per àtoms pesats, és l'ús de densitats de Forats de fermi, els quals es troben definits al voltant del fragment d'interès. Aquest procediment modifica la densitat de manera que es troba majoritàriament concentrada a la regió d'interès, però alhora permet obtenir una funció densitat, la qual es comporta matemàticament igual que la densitat electrònica regular, podent-se així incorporar dins del marc de la semblança molecular. Les autosemblances calculades amb aquesta metodologia han portat a bones correlacions amb àcids aromàtics substituïts, podent així donar una explicació al seu comportament.Des d'un altre punt de vista, també s'han fet contribucions conceptuals. S'ha implementat una nova mesura de semblança, la d'energia cinètica, la qual consisteix en prendre la recentment desenvolupada funció densitat d'energia cinètica, la qual al comportar-se matemàticament igual a les densitats electròniques regulars, s'ha incorporat en el marc de la semblança. A partir d'aquesta mesura s'han obtingut models QSAR satisfactoris per diferents conjunts moleculars. Dins de l'aspecte del tractament de les matrius de semblança s'ha implementat l'anomenada transformació estocàstica com a alternativa a l'ús de l'índex Carbó. Aquesta transformació de la matriu de semblança permet obtenir una nova matriu no simètrica, la qual pot ser posteriorment tractada per a construir models QSAR. / The present work, even embraced by the Molecular Quantum Similarity Measures (MQSM) theory, is divided into three clearly defined frameworks:- Creation of Molecular IsoDensity Contours (MIDCOs) from fitted electronic densities.- Development of an alternative superposition method to replace the maximal similarity rule.- Quantitative Structure-Activity Relationships (QSAR).The objective in field of MIDCOs is the application of fitted density functions, initially developed to reduce the computational costs of calculating MQSM, in order to obtain MIDCOs. So, a graphical comparison is carried out using different fittings to different basis sets, derived from calculations carried out at ab initio level. In this way, the visual analogy between the density representations, along with the values of previously calculated similarity measures, which in turn are fully comparable, reinforces the usage of such fitted densities.Apart from the initial idea, two further studies were done to complement the simple density representations, these are the curvature analysis and the extension to macromolecules. The first step corresponds not only to verify the visual similarity between MIDCOs, but to ensure their coherence in their behaviour at curvature level, allowing to observe inflexion points in the representations and those regions where the density itself presents a convex or concave shape. This first study reveals that both fitted and ab initio densities behave in the same way. In the second study, the method was extended to larger molecules, up to 2500 atoms.Finally, some of the MEDLA philosophy is applied. Knowing that electronic density rapidly decays as it is measured further from nuclei, its calculation at large distances from the nearest nucleus can be avoided. In this way, a partition of the space was proposed, and the fitted density basis set is only calculated for each atom only in its vicinity. Using this procedure, the calculation time is reduced and the whole process becomes linear with the number of atoms of the studied molecule.In the chapter devoted to molecular superposition, the creation of an algorithm, along with its practical implementation, called Topo-Geometrical Superposition Algorithm (TGSA), able to direct those alignments that coincide with chemical intuition. The result is an informatics program, codified in Fortran 90, which aligns the molecules by pairs, considering only atomic numbers and coordinates. The complete absence of theoretical parameters allows developing a general superposition method, which provides an intuitive superposition, and it is also relevant, in a fast way without much user-supplied information. Major usage of TGSA has been devoted to provide an alignment to later compute similarity measures, which in turn do not customarily coincide with those values obtained from the maximal similarity rule, most if heavy atoms are present.Finally, in the last studied subject, devoted to the Quantum Similarity in the QSAR field, three different scopes are treated:1) Usage of similarity matrices. Here, the so-called similarity matrix, calculated from pairwise similarities in a molecular set, is latterly, and properly manipulated, used a source of molecular descriptors for QSAR studies. With in this framework, several correlation studies have been carried out, involving relevant pharmacological properties, as well as toxicity and physical properties.2) Application of the electron-electron repulsion energy. This simple contribution consists briefly of taking the value of this magnitude, and by analogy with the self-similarity notation, it is assimilated as a particular case of this measure. This interaction energy is easily obtainable from mecanoquantic software and becomes ideal in order to make a preliminary correlation study, where this magnitude is used as a single descriptor.3) Calculation of self-similarities, where the density has been modified to account a particular substituent. Previous studies using density fragments, even they provide valuable results, lack of conceptual rigour when isolating a fragment, supposed to be responsible for a particular molecular response, even those densities associated to a particular fragment are already different due to they belong to a common skeleton with different substitutions. A procedure able to fill the gap between usage of density fragments , which avoid the heavy atom effect, and the whole molecular density, which allows to compute a self-similarity, is proposed. It consists of using Fermi Hole density functions, where the holes are defined and averaged around a particular fragment. This procedure medifies the density in a way that is basically collapsed in this molecular bay, but allowing at the same time obtaining a a density function that behaves mathematically in the same way as a regular electronic density; hence it is included in the similarity framework. Those self-similarities computed using this procedure provide good correlations with substituted aromatic acids, allowing to provide an explanation for their acidic behaviour.From another point of view, conceptual contributions have been developed. A new similarity measure, Kinetic Energy-based, has been implemented, which consists of taking the recently developed Kinetic Energy density function, which has been incorporated into the similarity framework due to it mathematically behaves like a regular density function. Satisfactory QSAR models, derived from this new measure, have been obtained for several molecular systems. Within the similarity matrices field, it has been implemented a new scaling, called stochastic transformation, as an alternative to Carbó Index. This transformation of the matrix allows obtaining a new non-symmetric matrix, which can be later used as a source of descriptors to build QSAR model.
198

Turbulence Modeling for Predicting Flow Separation in Rocket Nozzles

Allamaprabhu, Yaravintelimath January 2014 (has links) (PDF)
Convergent-Divergent (C-D) nozzles are used in rocket engines to produce thrust as a reaction to the acceleration of hot combustion chamber gases in the opposite direction. To maximize the engine performance at high altitudes, large area ratio, bell-shaped or contoured nozzles are used. At lower altitudes, the exit pressure of these nozzles is lower than the ambient pressure. During this over-expanded condition, the nozzle-internal flow adapts to the ambient pressure through an oblique shock. But the boundary layer inside the divergent portion of the nozzle is unable to withstand the pressure rise associated with the shock, and consequently flow separation is induced. Numerical simulation of separated flows in rocket nozzles is challenging because the existing turbulence models are unable to correctly predict shock-induced flow separation. The present thesis addresses this problem. Axisymmetric, steady-state, Reynolds-Averaged Navier-Stokes (RANS) simulations of a conical nozzle and three sub-scale contoured nozzles were carried out to numerically predict flow separation in over-expanded rocket nozzles at different nozzle pressure ratios (NPR). The conical nozzle is the JPL 45◦-15◦ and the contoured nozzles are the VAC-S1, the DLR-PAR and the VAC-S6-short. The commercial CFD code ANSYS FLUENT 13 was first validated for simulation of separated cold gas flows in the VAC-S1 nozzle. Some modeling issues in the numerical simulations of flow separation in rocket nozzles were determined. It is recognized that compressibility correction, nozzle-lip thickness and upstream-extension of the external domain are the sources of uncertainty, besides turbulence modeling. In high-speed turbulent flows, compressibility is known to affect dissipation rate of turbulence kinetic energy. As a consequence, a reduction in the spreading rate of supersonic mixing layers occurs. Whereas, the standard turbulence models are developed and calibrated for incompressible flows and hence, do not account for this effect. ANSYS FLUENT uses the compressibility correction proposed by Wilcox [1] which modifies the turbulence dissipation terms based on turbulent Mach number. This, as shown in this thesis, may not be appropriate to the prediction of flow separation in rocket nozzles. Simulation results of the standard SST model, with and without the compressibility correction, are compared with the experimental data at NPR=22 for the DLR-PAR nozzle. Compressibility correction is found to cause under-prediction of separation location and hence its use in the prediction of flow separation is not recommended. In the literature, computational domains for the simulation of DLR subscale nozzles have thick nozzle-lips whereas for the VAC subscale nozzles they have no nozzle-lip. Effect of nozzle-lip thickness on flow separation is studied in the DLR-PAR nozzle by varying its nozzle-lip thickness. It is found that nozzle-lip thickness significantly influences both separation location and post-separation pressure recovery by means of the recirculation bubbles formed at the nozzle-lip. Usually, experimental values of free stream turbulence are unknown. So conventionally, to minimize solution dependence on the boundary conditions specified for the ambient flow, the computational domain external to the nozzle is extended in the upstream direction. Its effect on flow separation is studied in the DLR-PAR nozzle through simulations conducted with and without this domain extension. No considerable effect on separation location and pressure recovery is found. The two eddy-viscosity based turbulence models, Spalart-Allmaras (SA) model and Shear Stress Transport (SST) model, are well known to predict separation location better than other eddy-viscosity models, but with moderate success. Their performances, in terms of predicting separation location and post-separation wall pressure distribution, were compared with each other and evaluated against experimental data for the conical and two contoured nozzles. It is found that they fail to predict the separation location correctly, exhibiting sensitivity to the range of NPRs and to the type of nozzle. Depending on NPR, the SST model either under-predicts or over-predicts Free Shock Separation (FSS). Moreover, it also fails to capture Restricted Shock Separation (RSS). With compressibility correction, it under-predicts separation at all NPRs to a greater extent. Even though RSS is captured by using compressibility correction, the transition from FSS to RSS is over-predicted [2]. Early efforts by few researchers to improve predictions of nozzle flow separation by realizability corrections to turbulence models have not been successful, especially in terms of capturing both the separation types. Therefore, causes of turbulence modeling failure in predicting nozzle flow separation correctly were further investigated. It is learnt that limiting of the shear stress inside boundary layer, due to Bradshaw’s assumption, and over-prediction of jet spreading rate are the causes of SST model’s failure in predicting nozzle flow separation correctly. Based on this physical reasoning, values of the a 1 parameter and the two diffusion coefficients σk,2 and σω,2 were empirically modified to match the predicted wall pressure distributions with experimental data of the DLR-PAR and the VAC-S6-short nozzles. The results confirm that accurate prediction of flow separation in rocket nozzles indeed depends on the correct prediction of spreading rate of the supersonic separation-jet. It is demonstrated that accurate RANS simulation of flow separation in rocket nozzles over a wide range of NPRs is feasible by modified values of the diffusion coefficients in turbulence model.
199

Feature selection based segmentation of multi-source images : application to brain tumor segmentation in multi-sequence MRI / Segmentation des images multi-sources basée sur la sélection des attributs : application à la segmentation des tumeurs cérébrales en IRM

Zhang, Nan 12 September 2011 (has links)
Les images multi-spectrales présentent l’avantage de fournir des informations complémentaires permettant de lever des ambigüités. Le défi est cependant comment exploiter ces informations multi-spectrales efficacement. Dans cette thèse, nous nous focalisons sur la fusion des images multi-spectrales en extrayant des attributs les plus pertinents en vue d’obtenir la meilleure segmentation possible avec le moindre coût de calcul possible. La classification par le Support Vector Machine (SVM), combinée avec une méthode de sélection d’attributs, est proposée. Le critère de sélection est défini par la séparabilité des noyaux de classe. S’appuyant sur cette classification SVM, un cadre pour suivre l’évolution est proposé. Il comprend les étapes suivantes : apprentissage des tumeurs cérébrales et sélection des attributs à partir du premier examen IRM (imagerie par résonance magnétique) ; segmentation automatique des tumeurs dans de nouvelles images en utilisant une classification basée sur le SVM multi-noyaux ; affiner le contour des tumeurs par une technique de croissance de région ; effectuer un éventuel apprentissage adaptatif. L’approche proposée a été évaluée sur 13 patients avec 24 examens, y compris 72 séquences IRM et 1728 images. En comparant avec le SVM traditionnel, Fuzzy C-means, le réseau de neurones, et une méthode d’ensemble de niveaux, les résultats de segmentation et l’analyse quantitative de ces résultats démontrent l’efficacité de l’approche proposée. / Multi-spectral images have the advantage of providing complementary information to resolve some ambiguities. But, the challenge is how to make use of the multi-spectral images effectively. In this thesis, our study focuses on the fusion of multi-spectral images by extracting the most useful features to obtain the best segmentation with the least cost in time. The Support Vector Machine (SVM) classification integrated with a selection of the features in a kernel space is proposed. The selection criterion is defined by the kernel class separability. Based on this SVM classification, a framework to follow up brain tumor evolution is proposed, which consists of the following steps: to learn the brain tumors and select the features from the first magnetic resonance imaging (MRI) examination of the patients; to automatically segment the tumor in new data using a multi-kernel SVM based classification; to refine the tumor contour by a region growing technique; and to possibly carry out an adaptive training. The proposed system was tested on 13 patients with 24 examinations, including 72 MRI sequences and 1728 images. Compared with the manual traces of the doctors as the ground truth, the average classification accuracy reaches 98.9%. The system utilizes several novel feature selection methods to test the integration of feature selection and SVM classifiers. Also compared with the traditional SVM, Fuzzy C-means, the neural network and an improved level set method, the segmentation results and quantitative data analysis demonstrate the effectiveness of our proposed system.
200

Reconstruction statistique 3D à partir d’un faible nombre de projections : application : coronarographie RX rotationnelle / 3D statistical reconstruction from a small number of projections. application : XR rotational coronarography

Oukili, Ahmed 16 December 2015 (has links)
La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes). / The problematic of this thesis concerns the statistical iterative 3D reconstruction of coronary tree from a very few number of coronary angiograms (5 images). During RX rotational angiographic exam, only projections corresponding to the same cardiac phase are selected in order to check the condition of space and time non-variability of the object to reconstruct (static reconstruction). The limited number of projections complicates the reconstruction, considered then as an illness inverse problem. The answer to a similar problem needs a regularization process. To do so, we choose baysian formalism considering the reconstruction as a random field maximizing the posterior probability (MAP), composed by quadratic likelihood terms (attached to data) and Gibbs prior (prior markovian based on a partial interpretation of the object to reconstruct). The MAP maximizing allowed us using a numerical optimization algorithm, to introduce a smoothing constraint and preserve the edges on the reconstruction while choosing wisely the potential functions associated to prior energy. In this paper, we have discussed in details the three components of efficient statistical reconstruction MAP, which are : 1- the construction of precise physical model of acquisition process; 2- the selection of an appropriate prior model; and 3- the definition of an efficient iterative optimization algorithm. This discussion lead us to propose two iterative algorithms MAP, MAP-MNR and MAP-ARTUR-GC, which we have tested and evaluated on realistic simulated data (Patient data from 64-slice CT).

Page generated in 0.0802 seconds