• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 141
  • 48
  • 37
  • 24
  • 17
  • 9
  • 5
  • 5
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 356
  • 72
  • 69
  • 63
  • 52
  • 50
  • 42
  • 39
  • 35
  • 33
  • 31
  • 31
  • 28
  • 25
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

O meandramento ciclônico da Corrente do Brasil ao largo do Cabo de Santa Marta (∼28,5ºS) / The Brazil Current cyclonic meandering off Cape Santa Marta (28,5°S)

Sato, Ronaldo Mitsuo 15 December 2014 (has links)
O meandramento da Corrente do Brasil (CB) ao sul da Bifurcação de Santos é investigada por meio de imagens satelitárias, dados quase-sinóticos, análise de funções ortogonais empíricas (EOF) de correntômetros de fundeios e um modelo analítico semi-teórico. A análise das imagens satelitárias revelam que em média 1,2 meandros ciclônicos de grande amplitude são formados anualmente nas vizinhanças do Cabo de Santa Marta (∼28,5°S). Os meandros parecem ser geostroficamente instáveis e a taxa de crescimento típica estimada é de 0,05 m s-1 . Eles ainda se propagam para sul com velocidade de fase de 0,07 m s-1 . A seção de velocidade, como a inferida por perfis de L-ADCP obtidos durante cruzeiros hidrográficos, revelam que os meandros do Cabo de Santa Marta possuem estrutura de velocidade distinta daquelas observadas em Cabo Frio (23°S) e Cabo de São Tomé (22°S). Os meandros alcançam profundidades maiores que 1400 m e recirculam Água Tropical, Água Central do Atlântico Sul, Água Intermediária Antártica e Água Circumpolar Superior. Ocasionalmente, a estrutura do vórtice se funde com a camada subjacente da Corrente de Contorno Oeste Profunda. O padrão geostrófico horizontal dos meandros foram mapeados usando dados de temperatura e salinidade de cruzeiros históricos e foi obtido que a estrutura ciclônica do meandro possui número de Rossby (∼0,07) e número de Burger (∼0,06) pequenos. Portanto, vorticidade de estiramento parece ter papel importante na dinâmica de meandramento e, consequentemente, instabilidade baroclínica é o fenômeno primariamente responsável pelo crescimento do ciclone. O número de Burger pequeno também sugere que a dinâmica do meandro é influênciada pela topografia. A análise de EOFs bidimensionais conduzida no transecto WOCE 28°S de fundeios históricos dos anos 90 mostram que o primeiro modo seccional explica cerca de 54% da variância das séries e está relacionado ao meandramento da CB. A amplitude do meandro ciclônico é aproximadamente 200 km uma vez que cruza o transecto e a onda de vorticidade baroclínica associada tem tipicamente 26 dias. Finalmente, um modelo de Dinâmica de Contornos idealizado de 2 camadas é construído para isolar o mecanismo de instabilidade baroclínica e para investigar as razões do crescimento e velocidade de fase para sul. A estrutura do fluxo básico do modelo é construído baseado no ajuste por mínimos quadrados das funções teóricas à média das observações nas espessuras das camadas. A simulação mostrou que o meandro evolui e se desenvolve devido ao fechamento de fase da camada inferior mais lenta relativo à camada superior mais rápida. Além disso, a propagação de fase para sul ocorre como uma consequência direta da componente barotrópica robusta, adquirida pela CB devido o ramo sul da Bifurcação de Santos. / The Brazil Current (BC) meandering south of the so-called Antarctic Intemediate Water\'s Santos Bifurcation is investigated by means of satellite imagery, quasi-synoptic data, empirical orthogonal function (EOF) analysis of currentmeter moorings and a semi-theoretical dynamical model. The analysis of the infrared imagery revealed that on average 1.2 large amplitude cyclonic meanders are formed annualy in the vicinities of Cape Santa Marta (∼28.5°S). The meanders seem to be geophysically unstable and the estimated typical growth rate is of 0.05 days-1 . They also propagate southward with phase speed of 0.07 m s-1 . The sectional velocity distributions, as inferred from L-ADCP profiles obtained during hydrographic cruises, revealed that the Cape Santa Marta meanders have a very distinct vertical structure from those observed off Cape Frio (23°S) and Cape São Tomé (22°S). The meanders reach much depths of 1400 m and recirculated Tropical Water, South Atlantic Central Water, Antarctic Intemediate Water and Upper Circumpolar Waters. Occasionally, the eddy structure melds with the underlying Deep Western Boundary Current. Geostrophic horizontal patterns of the meanders were mapped using T-S information from historical cruises and it is obtained that the meander is a low-Rossby number (∼0.07) and low-Burger(∼0.06) number cyclone feature. Therefore, stretching vorticity seems to play a major role on the meandering dynamics and, consequently, baroclinic instability is the phenomenon primairily responsible for the cyclone growth. The low-Burger number also suggests that the meander dynamics is influenced by the topography. The two-dimensional EOF analysis conducted on the historical 28°S WOCE mooring transect from the 90s shows that the first sectional mode explains about 54% of the series variance and is related to the BC meandering. The amplitude of the cyclonic meander is roughly 200 km as it crosses the transect and the associated baroclinic vorticity wave period is typically 26 days. Finally, an idealized 2-layer Contour Dynamics model is constructed to isolate the baroclinic instability mechanism and to investigate the reasons for the growth and the southward phase speeds. The model\'s basic flow structure is built based on least-square fits of the observations averaged within the two layer\'s vertical extensions. The simulation showed that the meander evolve and grow due to the phase-locking of the slower lower layer relative to the faster upper layer. Also, the southward phase speed occurs as a direct consequence of the robust barotropic component acquired by the BC due to the southern branch of the Santos Bifurcation of the Antarctic Intemediate Water.
232

O uso variável do pronome de segunda pessoa você(s)/cês(s) na cidade de São Paulo / The variable use of the second person pronoun você(s)/cê(s) in the city of São Paulo

Nascimento, Ivanete Belem do 17 February 2011 (has links)
Esta dissertação trata da variação no uso do pronome de segunda pessoa (singular e plural) na cidade de São Paulo. Duas formas alternativas são empregadas nessa comunidade de fala: a variante plena você(s) e a forma foneticamente reduzida cê(s). A pesquisa é desenvolvida de acordo com os pressupostos teórico-metodológicos da Sociolinguística Variacionista. Foram desenvolvidas análises sincrônica e diacrônica com dados extraídos de duas amostras (NURC-SP-1970 e GESOL-SP-2000). Os resultados evidenciam um equilíbrio na distribuição das duas variantes nessa comunidade de fala. Embora se verifique uma típica mudança em progresso (tempo aparente) na década de 1970, a análise dos anos 2000 revela um caso de variação estável na comunidade de fala. Nos anos 2000, a variante inovadora, a forma reduzida cê, tende a ser favorecida pelos informantes mais jovens e pelas mulheres acima de 50 anos de idade. Cê é desfavorecida entre os indivíduos de uma faixa etária intermediária (entre 35 e 45 anos) o que pode estar relacionado a questões de monitoramento da fala e ao mercado linguístico (Paiva & Duarte, 2003). Adicionalmente, cê tende a ser evitado entre os indivíduos mais escolarizados; e é favorecido em interações cujos informantes são familiares ou amigos. De um ponto de vista linguístico, o emprego das variantes é correlacionado pelo Princípio do Contorno Obrigatório e por questões morfossintáticas, semânticas e discursivo-cognitivas, com especial atenção à referência do pronome. Os resultados corroboram a hipótese de cliticização da variante reduzida, mas fornecem um contra-argumento à correlação direta entre erosão fonética e abstratização semântica, defendida na literatura sobre gramaticalização. / This master thesis analyzes the variation in the use of the second person pronoun (singular and plural) in the city of São Paulo. Two alternative forms are employed: você you, and a phonetically reduced form cê you. The research is developed according to the theoretical and methodological framework of Variationist Sociolinguistics. Both synchronic and diachronic multivariate analyses are pursued, with data extracted from two samples (NURC-SP-1970 and GESOL-SP-2000). The results show a balance in the distribution of the two variants in the speech community. Although it was observed a typical change in progress (apparent time) in the 1970s, the analysis of the 2000s data reveals a case of stable variation in the speech community. In the 2000s, the innovative, phonetically reduced variant tends to be favored by younger people and women over 50 years old. Cê is disfavored among individuals between 35 and 45 years which can be related to issues of speech monitoring and the linguistic market (Paiva & Duarte, 2003). In addition, cê tends to be avoided by those whose level of education is higher, and is favored in conversations between informants who are friends or relatives. From a linguistic perspective, the use of variants is correlated by the Obligatory Contour Principle (OCP) and by morphosyntactic, semantic and discursive-cognitive factors, with special attention to the reference of the pronoun. Results confirm the hypothesis of cliticization of the reduced variant, but reveal a counterargument for the direct correlation between \"phonetic erosion\" and \"semantic abstraction\", which has been claimed in the literature on grammaticalization
233

Extração de fatores de intensidade de tensão utilizando a solução do método dos elementos finitos generalizados / Extraction of stress intensity factors from generalized finite element solutions

Pereira, Jerônymo Peixoto Athayde 04 May 2004 (has links)
O trabalho apresenta uma análise do desempenho de vários métodos de extração de fatores de intensidade de tensão a partir de soluções numéricas obtidas com o método dos elementos finitos generalizados (MEFG). A convergência dos fatores de intensidade de tensão é comparada com a da energia de deformação a fim de investigar a superconvergência dos métodos. Para extração dos fatores de intensidade de tensão e o cálculo da taxa de energia disponibilizada para propagação da fissura, implementam-se os métodos da integral de contorno (MIC), da função cutoff (MFC) e da integral-J no contexto do MEFG. Desenvolve-se a formulação dos métodos de extração de forma a obter uma implementação independente da malha utilizada na modelagem do problema. Aplica-se a extração dos fatores de intensidade de tensão, para modos puros e mistos, em problemas clássicos da mecânica da fratura. Verifica-se a convergência dos fatores de intensidade de tensão e da taxa de energia disponibilizada para a propagação da fissura, obtidos com cada método de extração, com o enriquecimento da ordem polinomial da solução do MEFG. Investiga-se a robustez dos métodos com relação ao tamanho dos domínios de extração / The performance of several techniques to extract stress intensity factors (SIF) from numerical solutions computed with the generalized finite element method (GFEM) is investigated. The convergence of the stress intensity factors is compared with the convergence of strain energy with the aim of investigate the superconvergence of the methods. The contour integral (CIM), the cutoff function (CFM) and the J-integral methods are considered to compute stress intensity factors and energy release rate. The proposed implementation of the extraction techniques is completely independent of the discretization used. Several numerical examples demonstrating the convergence of the computed stress intensity factors and the energy release rate, with the increasing of p order of the GFEM solution, are presented
234

O uso variável do pronome de segunda pessoa você(s)/cês(s) na cidade de São Paulo / The variable use of the second person pronoun você(s)/cê(s) in the city of São Paulo

Ivanete Belem do Nascimento 17 February 2011 (has links)
Esta dissertação trata da variação no uso do pronome de segunda pessoa (singular e plural) na cidade de São Paulo. Duas formas alternativas são empregadas nessa comunidade de fala: a variante plena você(s) e a forma foneticamente reduzida cê(s). A pesquisa é desenvolvida de acordo com os pressupostos teórico-metodológicos da Sociolinguística Variacionista. Foram desenvolvidas análises sincrônica e diacrônica com dados extraídos de duas amostras (NURC-SP-1970 e GESOL-SP-2000). Os resultados evidenciam um equilíbrio na distribuição das duas variantes nessa comunidade de fala. Embora se verifique uma típica mudança em progresso (tempo aparente) na década de 1970, a análise dos anos 2000 revela um caso de variação estável na comunidade de fala. Nos anos 2000, a variante inovadora, a forma reduzida cê, tende a ser favorecida pelos informantes mais jovens e pelas mulheres acima de 50 anos de idade. Cê é desfavorecida entre os indivíduos de uma faixa etária intermediária (entre 35 e 45 anos) o que pode estar relacionado a questões de monitoramento da fala e ao mercado linguístico (Paiva & Duarte, 2003). Adicionalmente, cê tende a ser evitado entre os indivíduos mais escolarizados; e é favorecido em interações cujos informantes são familiares ou amigos. De um ponto de vista linguístico, o emprego das variantes é correlacionado pelo Princípio do Contorno Obrigatório e por questões morfossintáticas, semânticas e discursivo-cognitivas, com especial atenção à referência do pronome. Os resultados corroboram a hipótese de cliticização da variante reduzida, mas fornecem um contra-argumento à correlação direta entre erosão fonética e abstratização semântica, defendida na literatura sobre gramaticalização. / This master thesis analyzes the variation in the use of the second person pronoun (singular and plural) in the city of São Paulo. Two alternative forms are employed: você you, and a phonetically reduced form cê you. The research is developed according to the theoretical and methodological framework of Variationist Sociolinguistics. Both synchronic and diachronic multivariate analyses are pursued, with data extracted from two samples (NURC-SP-1970 and GESOL-SP-2000). The results show a balance in the distribution of the two variants in the speech community. Although it was observed a typical change in progress (apparent time) in the 1970s, the analysis of the 2000s data reveals a case of stable variation in the speech community. In the 2000s, the innovative, phonetically reduced variant tends to be favored by younger people and women over 50 years old. Cê is disfavored among individuals between 35 and 45 years which can be related to issues of speech monitoring and the linguistic market (Paiva & Duarte, 2003). In addition, cê tends to be avoided by those whose level of education is higher, and is favored in conversations between informants who are friends or relatives. From a linguistic perspective, the use of variants is correlated by the Obligatory Contour Principle (OCP) and by morphosyntactic, semantic and discursive-cognitive factors, with special attention to the reference of the pronoun. Results confirm the hypothesis of cliticization of the reduced variant, but reveal a counterargument for the direct correlation between \"phonetic erosion\" and \"semantic abstraction\", which has been claimed in the literature on grammaticalization
235

Efficient inference and learning in graphical models for multi-organ shape segmentation / Inférence efficace et apprentissage des modèles graphiques pour la segmentation des formes multi-organes

Boussaid, Haithem 08 January 2015 (has links)
Cette thèse explore l’utilisation des modèles de contours déformables pour la segmentation basée sur la forme des images médicales. Nous apportons des contributions sur deux fronts: dans le problème de l’apprentissage statistique, où le modèle est formé à partir d’un ensemble d’images annotées, et le problème de l’inférence, dont le but est de segmenter une image étant donnée un modèle. Nous démontrons le mérite de nos techniques sur une grande base d’images à rayons X, où nous obtenons des améliorations systématiques et des accélérations par rapport à la méthode de l’état de l’art. Concernant l’apprentissage, nous formulons la formation de la fonction de score des modèles de contours déformables en un problème de prédiction structurée à grande marge et construisons une fonction d’apprentissage qui vise à donner le plus haut score à la configuration vérité-terrain. Nous intégrons une fonction de perte adaptée à la prédiction structurée pour les modèles de contours déformables. En particulier, nous considérons l’apprentissage avec la mesure de performance consistant en la distance moyenne entre contours, comme une fonction de perte. L’utilisation de cette fonction de perte au cours de l’apprentissage revient à classer chaque contour candidat selon sa distance moyenne du contour vérité-terrain. Notre apprentissage des modèles de contours déformables en utilisant la prédiction structurée avec la fonction zéro-un de perte surpasse la méthode [Seghers et al. 2007] de référence sur la base d’images médicales considérée [Shiraishi et al. 2000, van Ginneken et al. 2006]. Nous démontrons que l’apprentissage avec la fonction de perte de distance moyenne entre contours améliore encore plus les résultats produits avec l’apprentissage utilisant la fonction zéro-un de perte et ce d’une quantité statistiquement significative.Concernant l’inférence, nous proposons des solveurs efficaces et adaptés aux problèmes combinatoires à variables spatiales discrétisées. Nos contributions sont triples: d’abord, nous considérons le problème d’inférence pour des modèles graphiques qui contiennent des boucles, ne faisant aucune hypothèse sur la topologie du graphe sous-jacent. Nous utilisons un algorithme de décomposition-coordination efficace pour résoudre le problème d’optimisation résultant: nous décomposons le graphe du modèle en un ensemble de sous-graphes en forme de chaines ouvertes. Nous employons la Méthode de direction alternée des multiplicateurs (ADMM) pour réparer les incohérences des solutions individuelles. Même si ADMM est une méthode d’inférence approximative, nous montrons empiriquement que notre implémentation fournit une solution exacte pour les exemples considérés. Deuxièmement, nous accélérons l’optimisation des modèles graphiques en forme de chaîne en utilisant l’algorithme de recherche hiérarchique A* [Felzenszwalb & Mcallester 2007] couplé avec les techniques d’élagage développés dans [Kokkinos 2011a]. Nous réalisons une accélération de 10 fois en moyenne par rapport à l’état de l’art qui est basé sur la programmation dynamique (DP) couplé avec les transformées de distances généralisées [Felzenszwalb & Huttenlocher 2004]. Troisièmement, nous intégrons A* dans le schéma d’ADMM pour garantir une optimisation efficace des sous-problèmes en forme de chaine. En outre, l’algorithme résultant est adapté pour résoudre les problèmes d’inférence augmentée par une fonction de perte qui se pose lors de l’apprentissage de prédiction des structure, et est donc utilisé lors de l’apprentissage et de l’inférence. [...] / This thesis explores the use of discriminatively trained deformable contour models (DCMs) for shape-based segmentation in medical images. We make contributions in two fronts: in the learning problem, where the model is trained from a set of annotated images, and in the inference problem, whose aim is to segment an image given a model. We demonstrate the merit of our techniques in a large X-Ray image segmentation benchmark, where we obtain systematic improvements in accuracy and speedups over the current state-of-the-art. For learning, we formulate training the DCM scoring function as large-margin structured prediction and construct a training objective that aims at giving the highest score to the ground-truth contour configuration. We incorporate a loss function adapted to DCM-based structured prediction. In particular, we consider training with the Mean Contour Distance (MCD) performance measure. Using this loss function during training amounts to scoring each candidate contour according to its Mean Contour Distance to the ground truth configuration. Training DCMs using structured prediction with the standard zero-one loss already outperforms the current state-of-the-art method [Seghers et al. 2007] on the considered medical benchmark [Shiraishi et al. 2000, van Ginneken et al. 2006]. We demonstrate that training with the MCD structured loss further improves over the generic zero-one loss results by a statistically significant amount. For inference, we propose efficient solvers adapted to combinatorial problems with discretized spatial variables. Our contributions are three-fold:first, we consider inference for loopy graphical models, making no assumption about the underlying graph topology. We use an efficient decomposition-coordination algorithm to solve the resulting optimization problem: we decompose the model’s graph into a set of open, chain-structured graphs. We employ the Alternating Direction Method of Multipliers (ADMM) to fix the potential inconsistencies of the individual solutions. Even-though ADMMis an approximate inference scheme, we show empirically that our implementation delivers the exact solution for the considered examples. Second,we accelerate optimization of chain-structured graphical models by using the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] couple dwith the pruning techniques developed in [Kokkinos 2011a]. We achieve a one order of magnitude speedup in average over the state-of-the-art technique based on Dynamic Programming (DP) coupled with Generalized DistanceTransforms (GDTs) [Felzenszwalb & Huttenlocher 2004]. Third, we incorporate the Hierarchical A∗ algorithm in the ADMM scheme to guarantee an efficient optimization of the underlying chain structured subproblems. The resulting algorithm is naturally adapted to solve the loss-augmented inference problem in structured prediction learning, and hence is used during training and inference. In Appendix A, we consider the case of 3D data and we develop an efficientmethod to find the mode of a 3D kernel density distribution. Our algorithm has guaranteed convergence to the global optimum, and scales logarithmically in the volume size by virtue of recursively subdividing the search space. We use this method to rapidly initialize 3D brain tumor segmentation where we demonstrate substantial acceleration with respect to a standard mean-shift implementation. In Appendix B, we describe in more details our extension of the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] to inference on chain-structured graphs.
236

Development of computer-based algorithms for unsupervised assessment of radiotherapy contouring

Yang, Huiqi January 2019 (has links)
INTRODUCTION: Despite the advances in radiotherapy treatment delivery, target volume delineation remains one of the greatest sources of error in the radiotherapy delivery process, which can lead to poor tumour control probability and impact clinical outcome. Contouring assessments are performed to ensure high quality of target volume definition in clinical trials but this can be subjective and labour-intensive. This project addresses the hypothesis that computational segmentation techniques, with a given prior, can be used to develop an image-based tumour delineation process for contour assessments. This thesis focuses on the exploration of the segmentation techniques to develop an automated method for generating reference delineations in the setting of advanced lung cancer. The novelty of this project is in the use of the initial clinician outline as a prior for image segmentation. METHODS: Automated segmentation processes were developed for stage II and III non-small cell lung cancer using the IDEAL-CRT clinical trial dataset. Marker-controlled watershed segmentation, two active contour approaches (edge- and region-based) and graph-cut applied on superpixels were explored. k-nearest neighbour (k-NN) classification of tumour from normal tissues based on texture features was also investigated. RESULTS: 63 cases were used for development and training. Segmentation and classification performance were evaluated on an independent test set of 16 cases. Edge-based active contour segmentation achieved highest Dice similarity coefficient of 0.80 ± 0.06, followed by graphcut at 0.76 ± 0.06, watershed at 0.72 ± 0.08 and region-based active contour at 0.71 ± 0.07, with mean computational times of 192 ± 102 sec, 834 ± 438 sec, 21 ± 5 sec and 45 ± 18 sec per case respectively. Errors in accuracy of irregularly shaped lesions and segmentation leakages at the mediastinum were observed. In the distinction of tumour and non-tumour regions, misclassification errors of 14.5% and 15.5% were achieved using 16- and 8-pixel regions of interest (ROIs) respectively. Higher misclassification errors of 24.7% and 26.9% for 16- and 8-pixel ROIs were obtained in the analysis of the tumour boundary. CONCLUSIONS: Conventional image-based segmentation techniques with the application of priors are useful in automatic segmentation of tumours, although further developments are required to improve their performance. Texture classification can be useful in distinguishing tumour from non-tumour tissue, but the segmentation task at the tumour boundary is more difficult. Future work with deep-learning segmentation approaches need to be explored.
237

Contributions méthodologiques et appliquées à la méthode des modèles déformables

Pons, Jean-Philippe 18 November 2005 (has links) (PDF)
Les modèles déformables fournissent un cadre flexible pour traiter divers problèmes de reconstruction de forme en traitement d'images. Ils ont été proposés initialement pour la segmentation d'images, mais ils se sont aussi révélés adaptés dans de nombreux autres contextes en vision par ordinateur et en imagerie médicale, notamment le suivi de régions, la stéréovision, le "shape from shading" et la reconstruction à partir d'un nuage de points. Les éléments clés de cette méthodologie sont l'élaboration d'une fonctionnelle d'énergie, le choix d'une procédure de minimisation et d'une représentation géométrique. Dans cette thèse, nous abordons ces trois éléments, avec pour but d'élargir le champ d'application des modèles déformables et d'accroître leur performance. En ce qui concerne la représentation géométrique, nous venons à bout de la perte de la correspondance ponctuelle et de l'impossibilité de contrôler les changements de topologie avec la méthode des ensembles de niveau. Nous proposons deux applications associées dans le domaine de l'imagerie médicale: la génération de représentations dépliées du cortex cérébral avec préservation de l'aire, et la segmentation de plusieurs tissus de la tête à partir d'images par résonance magnétique anatomiques. En ce qui concerne la procédure de minimisation, nous montrons que la robustesse aux minima locaux peut être améliorée en remplaçant une descente de gradient traditionnelle par un flot de minimisation spatialement cohérent. Enfin, en ce qui concerne l'élaboration de la fonctionnelle d'énergie, nous proposons une nouvelle modélisation de la stéréovision multi-caméras et de l'estimation du mouvement tridimensionnel non-rigide, fondée sur un critère de mise en correspondance global et basé image.
238

Deux approches de segmentation temps-fréquence : détection par modèle statistique et extraction de contour par le champ de vecteurs de réallocation

Millioz, Fabien 16 September 2009 (has links) (PDF)
Les représentation temps-fréquence montrent l'évolution spectral d'un signal dans le temps. L'objectif de ces travaux de recherche est de proposer deux principes de segmentation du plan temps-fréquence, cherchant à déterminer quelles sont les zones temps-fréquence présentant un intérêt relatif au signal analysé.<br /><br />La première méthode s'appuie sur une méthode statistique, modélisant le signal analysé par un signal d'intérêt à segmenter perturbé par un bruit blanc gaussien additif de variance inconnue. Le but est de déterminer le support temps-fréquence, ensemble des points sur lesquels l'énergie du signal à segmenter est répartie. Une détection de type Neyman-Pearson à probabilité de fausse alarme fixée permet de détecter les points temps-fréquence contenant du signal, à niveau de bruit connu. L'algorithme proposé est itératif, estimant le niveau de bruit à partir des points non segmentés, ce niveau de bruit servant à détecter de nouveaux points contenant du signal. Un critère basé sur le kurtosis spectral des points non segmentés permet de définir l'arrêt des itérations.<br /><br />La seconde méthode est basée sur le principe de la réallocation du spectrogramme, en tant que source d'information sur le spectrogramme. La réallocation déplace l'énergie du spectrogramme sur le centre de gravité local de l'énergie. Aux frontière d'un motif temps-fréquence, l'énergie sera déplacée vers l'intérieur du motif. Ainsi, les vecteur<br />s de réallocation, décrivant le déplacement de l'énergie du pectrogramme par la réallocation, sont localement parallèles sur la frontière d'un motif. Nous définissons alors un « degré de parallélisme » pour chaque vecteur, égal au nombre de ses vecteurs voisins qui lui sont parallèles. Un algorithme de type suivi de crête, parcourant le plan temps-fréquence en suivant les maximums de ce degré de parallélisme, construit alors un contour entourant le motif temps-fréquence.
239

Conception d'un environnement de développement pour la résolution de problèmes : apport de l'intelligence artificielle distribuée et application à la vision

Baujard, Olivier 12 October 1992 (has links) (PDF)
L'objectif de cette thèse a été de concevoir un environnement de développement pour la resolution de problèmes, s'inspirant des langages a objets et de l'intelligence artificielle distribuée. Un environnement de programmation multi-agents a été conçu dans ce cadre. Cet environnement (maps) est fonde sur la distinction de deux classes d'agents, dédiées a la modélisation et a l'exploitation des connaissances figuratives (agent ks ou knowledge server) et des connaissances opératoires (agent kp ou knowledge processor). Ces classes peuvent alors etre spécialisées a l'aide d'un langage de programmation dedie. Une première version de cet environnement nous a permis de valider ces concepts de base, par la conception d'applications, en vision par ordinateur (système kiss), en diagnostic biomédical (système kids), en compréhension de la parole et en acquisition des connaissances. Le système kiss, décrit dans cette thèse, a été conçu pour manipuler les connaissances introduites par les phases d'analyse de bas niveau, de niveau intermédiaire et de haut niveau, dans une approche de type coopération région/contour. Dans notre approche multi-agents, ces connaissances sont distribuées au sein d'agents ks et kp, formant un réseau. Plusieurs améliorations ont été envisagées pour pallier un certain nombre de faiblesses de cet environnement et le rapprocher des plates-formes de conception en intelligence artificielle distribuée. Des améliorations fonctionnelles concernent l'introduction d'un mode d'exécution parallèle. Ces améliorations ont conduit a la définition d'un nouvel environnement. Des améliorations structurelles, encore a l'étude, concernent la définition d'agents hétérogènes et une structuration en couche des agents
240

Traitrements cognitifs mis en jeu dans la perception visuelle de scènes complexes et conséquences sur l'indexation automatique d'images

Li, Jingqiang 23 May 2008 (has links) (PDF)
Chez les sujets humains, la capacité d'identifier une scène visuelle complexe est remarquable. Avec une seule fixation d'une scène, de nombreuse d'informations sont disponibles : son contenu, son identité, sa structure spatiale et la catégorisation de cette scène (Potter, 1975; Schyns & Oliva, 1994; Thorpe, Fize, & Marlot, 1996). Plusieurs hypothèses sont développées : Tout abord, le sens général d'une scène peut être acquis grâce a l'identification d'un ou plusieurs objets typiques (Friedman, 1979) et leurs relations (De Graef, Christiaens, & d'Ydewalle, 1990). Alternativement à ce point de vue traditionnel considérant que l'identification d'une scène s'effectue par l'identification des objets qu'elle contient, une autre hypothèse suppose que l'identification d'une scène peut être acquise au moyen d'informations globales ayant des propriétés de "scène-niveau" donc sans savoir besoins d'informations portant sur les objets (Greene & Oliva, 2006; Schyns & Oliva, 1994; Oliva & Schyns, 2000). Ces propriétés de "scène-niveau" se caractériseraient par des grandes surfaces structurales ou d'autres types d'informations similaires (Biederman, 1995). En outre, l'étude des mouvements oculaires montrent que les fixations précoces sont influencées par la densité de contours, le contraste local (Mannan, Ruddock, & Wooding, 1996, 1997; Reinagel & Zador, 1999) ainsi que la structure de la scène (Sanocki & Epstein, 1997; Castelhano & Henderson, 2003; Oliva & Torralba., 2003). Nous supposons donc que ces deux types d'informations fusionneraient en une représentation des différentes zones de luminance ne contenant pas d'informations précises sur les objets. Le but de cette thèse est d'étudier le rôle de la structuration spatiale des différentes zones de luminance dans l'identification rapide de scènes complexes. Les résultats suggèrent que les participants sont capables d'identifier une scène visuelle en se basant sur cette propriété

Page generated in 0.0656 seconds