• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 75
  • 11
  • 2
  • Tagged with
  • 209
  • 89
  • 46
  • 33
  • 33
  • 32
  • 32
  • 32
  • 31
  • 30
  • 26
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Analyse spectrale à haute résolution de signaux irrégulièrement échantillonnés : application à l'Astrophysique.

Bourguignon, Sébastien 14 December 2006 (has links) (PDF)
L'étude de nombreux phénomènes astronomiques repose sur la recherche de périodicités dans des séries temporelles (courbes de lumière ou de vitesse radiale). En raison des contraintes observationnelles, la couverture temporelle des données résultantes est souvent incomplète, présentant des trous périodiques ainsi qu'un échantillonnage irrégulier. L'analyse du contenu fréquentiel de telles séries basée sur le spectre de Fourier s'avère alors inefficace et les méthodes heuristiques de déconvolution de type CLEAN, couramment utilisées en astronomie, ne donnent pas entière satisfaction. Cette thèse s'inscrit dans le formalisme fréquemment rencontré depuis les années 1990 abordant l'analyse spectrale sous la forme d'un problème inverse, le spectre étant discrétisé sur une grille fréquentielle arbitrairement fine. Sa régularisation est alors envisagée en traduisant la nature a priori parcimonieuse de l'objet à reconstruire: nous nous intéressons ici à la recherche de raies spectrales. <br />Une première approche envisagée a trait au domaine de l'optimisation et consiste à minimiser un critère de type moindres carrés, pénalisé par une fonction favorisant les solutions parcimonieuses. La pénalisation par la norme l1 est en particulier étudiée en extension à des variables complexes et s'avère satisfaisante en termes de modélisation. Nous proposons des solutions algorithmiques particulièrement performantes permettant d'envisager une analyse à très haute résolution fréquentielle. <br />Nous étudions ensuite la modélisation probabiliste des amplitudes spectrales sous la forme d'un processus Bernoulli-Gaussien, dont les paramètres sont estimés au sens de la moyenne a posteriori à partir de techniques d'échantillonnage stochastique, permettant d'envisager une estimation totalement non supervisée. L'interprétation probabiliste du résultat ainsi que l'obtention conjointe des variances associées, sont alors d'un intérêt astrophysique majeur, s'interprétant en termes de niveaux de confiance sur les composantes spectrales détectées. Nous proposons dans un premier temps des améliorations de l'algorithme échantillonneur de Gibbs permettant d'accélérer l'exploration de la loi échantillonnée. Ensuite, nous introduisons des variables de décalage fréquentiel à valeur continue, permettant d'augmenter la précision de l'estimation sans trop pénaliser le coût calculatoire associé. <br />Pour chaque méthode proposée, nous illustrons sur des simulations la qualité de l'estimation ainsi que les performances des algorithmes développés. Leur application à un jeu de données issu d'observations astrophysiques est enfin présentée, mettant en évidence l'apport d'une telle méthodologie par rapport aux méthodes d'analyse spectrale habituellement utilisées.
62

Modélisation objective de la localisation des déformations et de la fissuration des structures en béton soumises à des chargements statiques ou dynamiques

Giry, Cedric 10 November 2011 (has links) (PDF)
Dans une problématique d'analyse de la durabilité des structures en béton armé, la quantification de la localisation des déformations et des propriétés des fissures sont deux points clés. Ce travail présente une méthode permettant, dans le cadre de la mécanique des milieux continus, d'améliorer la description de l'évolution de la localisation des déformations. En se basant sur une approche continue du problème, l'évolution des nonlinéarités dans le béton est décrite au travers d'un modèle d'endommagement régularisé. Pour améliorer la description de la localisation des déformations, une modification de la méthode de régularisation nonlocale intégrale sur les variables internes est proposée. L'influence de l'état de contrainte sur les interactions nonlocales est introduite dans la régularisation, afin de prendre en compte la dégradation de la structure ainsi que l'influence des conditions aux limites sur les interactions nonlocales. Cette méthode, implantée dans le code aux éléments finis Cast3M, est validée sur différents cas tests analysant l'évolution des nonlinéarités de l'enclenchement de l'endommagement jusqu'à la rupture et permet notamment de résoudre des pathologies identifiées pour la méthode nonlocale originale. La comparaison avec des résultats expérimentaux montre également la capacité du modèle à décrire l'évolution de la fissuration dans une structure. Le modèle développé est ensuite utilisé pour analyser le comportement de structures en béton armé et sert de base pour introduire une description de la fissuration dans une modélisation simplifiée de type poutre multifibre. A partir de calcul 3D sur des éléments en béton armé utilisant le modèle développé, une loi uniaxiale est identifiée pour déterminer la fissuration dans une fibre en fonction de l'énergie dissipée par le modèle d'endommagement. Une comparaison avec des résultats expérimentaux est effectuée et montre la capacité de cette approche simplifiée à estimer la fissuration.
63

Tomographie cardiaque en angiographie rotationnelle

Mory, Cyril 26 February 2014 (has links) (PDF)
Un C-arm est un appareil d'imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l'imagerie des organes statiques. Cependant son extension à l'imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l'angiographie rotationnelle pour l'analyse du myocarde chez l'homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l'état de l'art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l'ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l'ECG par déconvolution. Elle permet d'obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l'angiographie rotationnelle cardiaque chez l'homme. Deux méthodes de reconstruction 3D basées sur l'échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l'état de l'art actuel, appelé " Prior Image Constrained Compressed Sensing " (PICCS). Elles permettent d'obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l'une de l'autre, mais elles s'appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l'aorte, et imposer une solution régulière dans l'espace et dans le temps. L'une de ces méthodes génère des résultats meilleurs, c'est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS
64

Résolution de problèmes inverses en géodésie physique

Abdelmoula, Amine 20 December 2013 (has links) (PDF)
Ce travail traite de deux problèmes de grande importances en géodésie physique. Le premier porte sur la détermination du géoïde sur une zone terrestre donnée. Si la terre était une sphère homogène, la gravitation en un point, serait entièrement déterminée à partir de sa distance au centre de la terre, ou de manière équivalente, en fonction de son altitude. Comme la terre n'est ni sphérique ni homogène, il faut calculer en tout point la gravitation. A partir d'un ellipsoïde de référence, on cherche la correction à apporter à une première approximation du champ de gravitation afin d'obtenir un géoïde, c'est-à-dire une surface sur laquelle la gravitation est constante. En fait, la méthode utilisée est la méthode de collocation par moindres carrés qui sert à résoudre des grands problèmes aux moindres carrés généralisés. Le seconde partie de cette thèse concerne un problème inverse géodésique qui consiste à trouver une répartition de masses ponctuelles (caractérisées par leurs intensités et positions), de sorte que le potentiel généré par eux, se rapproche au maximum d'un potentiel donné. Sur la terre entière une fonction potentielle est généralement exprimée en termes d'harmoniques sphériques qui sont des fonctions de base à support global la sphère. L'identification du potentiel cherché se fait en résolvant un problème aux moindres carrés. Lorsque seulement une zone limitée de la Terre est étudiée, l'estimation des paramètres des points masses à l'aide des harmoniques sphériques est sujette à l'erreur, car ces fonctions de base ne sont plus orthogonales sur un domaine partiel de la sphère. Le problème de la détermination des points masses sur une zone limitée est traitée par la construction d'une base de Slepian qui est orthogonale sur le domaine limité spécifié de la sphère. Nous proposons un algorithme itératif pour la résolution numérique du problème local de détermination des masses ponctuelles et nous donnons quelques résultats sur la robustesse de ce processus de reconstruction. Nous étudions également la stabilité de ce problème relativement au bruit ajouté. Nous présentons quelques résultats numériques ainsi que leurs interprétations.
65

Méthodes de démélange non-linéaires pour l'imagerie hyperspectrale

Nguyen Hoang, Nguyen 03 December 2013 (has links) (PDF)
Dans cette thèse, nous avons présenté les aspects de la technologie d'imagerie hyperspectrale en concentrant sur le problème de démélange non-linéaire. Pour cette tâche, nous avons proposé trois solutions. La première consiste à intégrer les avantages de l'apprentissage de variétés dans les méthodes de démélange classique pour concevoir leurs versions non-linéaires. Les résultats avec les données générées sur une variété bien connue - le "Swissroll"- donne des résultats prometteurs. Les méthodes fonctionnent beaucoup mieux avec l'augmentation de la non-linéarité. Cependant, l'absence de contrainte de non-négativité dans ces méthodes reste une question ouverte pour des améliorations à trouver. La deuxième proposition vise à utiliser la méthode de pré-image pour estimer une transformation inverse de l'espace de données entrées des pixels vers l'espace des abondances. L'ajout des informations spatiales sous forme "variation totale" est également introduit pour rendre l'algorithme plus robuste au bruit. Néanmoins, le problème d'obtention des données de réalité terrain nécessaires pour l'étape d'apprentissage limite l'application de ce type d'algorithmes.
66

Processus de Lévy et applications en finance : problèmes inverses et modélisation de la dépendance.

Tankov, Peter 21 September 2004 (has links) (PDF)
Cette thèse traite de la modélisation de prix boursiers par les exponentielles de processus de Lévy. La première partie développe une méthode non-paramétrique stable de calibration de modèles exponentielle-Lévy, c'est-à-dire de reconstruction de ces modèles à partir des prix d'options cotées sur un marché financier. J'étudie les propriétés de convergence et de stabilité de cette méthode de calibration, décris sa réalisation numérique et donne des exemples de son utilisation. L'approche adoptée ici consiste à reformuler le problème de calibration comme celui de trouver un modèle exponentielle-Lévy risque-neutre qui reproduit les prix d'options cotées avec la plus grande précision possible et qui a l'entropie relative minimale par rapport à un processus "a priori" donné. Ce problème est alors résolu en utilisant la méthode de régularisation, provenant de la théorie de problèmes inverses mal posés. L'application de ma méthode de calibration aux données empiriques de prix d'options sur indice permet d'étudier certaines propriétés des mesures de Lévy implicites qui correspondent aux prix de marché. La deuxième partie est consacrée au développement d'une méthode permettant de caractériser les structures de dépendance entre les composantes d'un processus de Lévy multidimensionnel et de construire des modèles exponentielle-Lévy multidimensionnels. Cet objectif est atteint grâce à l'introduction de la notion de copule de Lévy, qui peut être considérée comme l'analogue pour les processus de Lévy de la notion de copule, utilisée en statistique pour modéliser la dépendance entre les variables aléatoires réelles. Les exemples de familles paramétriques de copules de Lévy sont donnés et une méthode de simulation de processus de Lévy multidimensionnels, dont la structure de dépendance est décrite par une copule de Lévy, est proposée.
67

Stéréo corrélation d'images numériques éléments finis : application à la validation de modèles de structures composites sous sollicitations complexes / Finite element based stereo digital image correlation : application to the validation of composite structures models complex loading

Pierré, Jean-Emmanuel 25 November 2016 (has links)
Le projet VERTEX, dans lequel s'inscrivent ces travaux, a pour objectif de valider des modèles composites par essais statiques multi-axiaux sur des éprouvettes à l'échelle des détails structuraux. Le positionnement à cette échelle nécessite de développer de nouveaux outils d'instrumentation et de dialogue essais/calculs, qui sont au cœur de cette thèse. Compte-tenu de la complexité de ce type d'essai, nous nous intéressons ici à la Stéréo Corrélation d'Images Numériques (SCIN) puisqu'elle permet d'accéder à un champ de déplacement 3D à la surface du spécimen. Néanmoins, si l'on s'en tient à des approches classiques, il est difficile de faire une comparaison quantitative entre un champ mesuré et un champ simulé par Éléments Finis (EF). Ainsi dans ce travail, un formalisme est développé pour réaliser une mesure par SCIN dans l'espace physique en se basant sur un modèle EF (calibration de modèles non-linéaires de caméra, mesure de forme EF, mesure de champs EF). Cette méthode donne accès à un champ de déplacement expérimental directement exprimé dans les repère et support EF de la simulation, ce qui simplifie considérablement la validation. Pour valider un modèle à l'échelle des détails structuraux, la question des conditions aux limites est fondamentale. Cette question est d'autant plus complexe que la mesure cinématique se limite à la surface visible. En plus de cette mesure surfacique, il est envisagé ici d'estimer les conditions aux limites dans l'épaisseur en s'appuyant sur un modèle de type plaque/coque (classique ou volumique) et en y accordant plus ou moins de confiance (approches régularisée ou intégrée dans tout ou partie de l'éprouvette). La méthodologie est implémentée dans un logiciel académique et est appliquée sur des essais synthétiques. Une instrumentation adaptée au banc VERTEX a également permis l'analyse des essais réalisés dans le projet. / VERTEX Project, to which this thesis belongs, aims to validate composite models by multi-axial static tests on specimens at the level of structural details. The positioning on this scale requires the development of both new instrumentation techniques and tools for the test/simulation dialogue, which are at the heart of this thesis. Given the complexity of this type of experiments, we focus here on Stereo Digital Image Correlation (SDIC) since it yields 3D displacement fields on the surface of the specimen. However, if we stick to conventional approaches, it is difficult to make quantitative comparisons between a measured field and a Finite Element (FE) simulated field. Thus, in this work, a framework is developed to make a measurement by SDIC in the physical coordinate system based on an FE model (calibration of non-linear camera models , FE shape measurement, FE field measurement). This method gives access to experimental displacement fields directly expressed both in the coordinate system and support of the FE simulation, which considerably simplifies validation. To validate a model at the scale of structural details, the question of boundary conditions is fundamental. This question is even more complex since the kinematic measurement is limited to the visible surface. In addition to this surface measurement, it is here envisioned to estimate additionally the boundary conditions in the thickness of the specimen relying on a plate/shell-like model (classic or volume). Different approaches are considered depending on the confidence giving to this model. This methodology is implemented in an academic software and is applied to synthetic tests. The development of a dedicated instrumentation also allowed the analysis of tests performed on the VERTEX bench.
68

Modélisation et simulation numérique robuste de l’endommagement ductile / Robust modeling and numerical simulation of ductile damage

Zhang, Yi 26 January 2016 (has links)
Cette thèse a pour objectif de développer une modélisation robuste pour l’endommagement ductile. En raison de l’adoucissement et du niveau de déformation élevé, les principales difficultés pratiques dans la simulation de l’endommagement ductile sont la dépendance au maillage et le verrouillage volumique. Dans ce travail, on choisit tout d’abord le cadre de grandes déformations en se basant sur un formalisme logarithmique. Puis, partant de la loi de Gurson-Tvergaard-Needleman transcrite en grandes déformations, on adopte une formulation non locale à gradient d’une variable interne qui permet de contrôler la localisation du dommage et traiter ainsi la dépendance au maillage. Ensuite, le modèle non local est couplé avec des éléments finis mixtes pour limiter le verrouillage volumique relatif à l’incompressibilité plastique. On aboutit ainsi à la construction d’un cadre de modélisation de l’endommagement ductile, indépendant du maillage et exonéré du verrouillage volumique. Les propriétés mathématiques et la performance numérique du modèle sont étudiées avec attention. Enfin, après une identification des paramètres sur un acier nucléaire, on réalise des simulations sur des éprouvettes (AE, CT, SENT) et sur une tuyauterie de réelle dimension afin de les confronter à des résultats d’essais. / The major goal of this dissertation is to develop a robust model for ductile damage simulation. Because of the softening behavior and the significantly large deformation in ductile damage, two principle difficulties should be dealt with carefully: mesh-dependency and volumetric locking. In this thesis, we adopt a logarithmic finite strain framework in which the Gurson-Tvergaard-Needleman constitutive law is reformulated. Then a non-local formulation with regularization of hardening variable is applied so as to solve mesh dependency and strain localization problem. In addition, the non-local model is combined with mixed “displacement-pressure-volume variation” elements to avoid volumetric locking. Thereby we establish a mesh-independent and locking-free finite strain framework for ductile damage modelling. Attention is paid to mathematical properties and numerical performance of the model. Finally, after an identification work of a nuclear steel,we carry out simulations on normalized specimens (NT, CT, SENT) as well as an industrial tube in order to compare with experimental results.
69

Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare / Characterisation of population diversity from quantified measures of a nonlinear model. Application to hyperbaric diving

Bennani, Youssef 10 December 2015 (has links)
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données. / This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance.
70

A desapropriação e a regularização dos territórios quilombolas / L'expropriation et la régularisation des territoires quilombolas

Franco, Rangel Donizete 29 February 2012 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2016-06-03T11:53:08Z No. of bitstreams: 2 Dissertação - Rangel Donizete Franco -2012.pdf: 1111092 bytes, checksum: 33368fe0e43c884f7ffca810ea8a0f85 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-06-03T12:11:37Z (GMT) No. of bitstreams: 2 Dissertação - Rangel Donizete Franco -2012.pdf: 1111092 bytes, checksum: 33368fe0e43c884f7ffca810ea8a0f85 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2016-06-03T12:11:37Z (GMT). No. of bitstreams: 2 Dissertação - Rangel Donizete Franco -2012.pdf: 1111092 bytes, checksum: 33368fe0e43c884f7ffca810ea8a0f85 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2012-02-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Ce papier vise à la question de la régularisation des territoires occupés par les communautés quilombolas situé dans les propriétés privées, pertinentes au droit agraire, du point de vue juridique. Il a comme point de départ le problème de doute sur si l'efficacité de l'article 68 des dispositions transitoires de loi constitucionnelle dépend ou non de l'utilisation de l’expropriation de l'article 13 du Décret n.º 4.887/03 et si elle peut être utiliser comme un outil juridique pour la régularisation foncière des communautés quilombolas. Dans le cadre théorique s'appuie sur des perspectives développées dans les domaines des droits de l'homme, des droits fondamentaux, du multiculturalisme, de la constitution dirigeant et du nouvelle constitutionnalisme démocratique hispanique. Dans ce contexte, tout d'abord, les fondements théoriques du travail sont expliqués et sont explicités les concepts fondamentaux pour la compréhension du sujet. Après, explique comment la question de l'expropriation comme une forme de régularisation est traitée par les sujets et les acteurs de l'action directe en inconstitutionnalitén n.º 3.239/DF. En outre, il examine si est valide ou non l'utilisation de l'expropriation pour la régularisation des territoires quilombolas, des cas des Kalungas, mais pas avant d'expliquer les aspects généraux relatifs à l'expropriation. Enfin, il présente une solution modulaire, implicant, outre l’expropriation, la reconnaissance des ocupations des quilombolas et la déclaration de nullité et d'annulation des titres et des dossiers non valides ou inefficace comme alternatives possibles por la régularisation des territoires quilombolas, avec l'interprétation conforme à la Constitution, dans le jugement d’une telle action. / Esta dissertação tem por objeto o tema da regularização dos territórios ocupados por comunidades quilombolas localizados em propriedades reputadas particulares, pertinente ao Direito Agrário, desde a perspectiva jurídica. A discussão orienta-se pelo problema da dúvida sobre se a eficácia do artigo 68 do Ato das Disposições Constitucionais Transitórias da Constituição Federal de 1988 depende ou não do uso da desapropriação prevista no artigo 13 do Decreto n.º 4.887/03 e se esta pode ser utilizada como instrumento jurídico para regularização dos territórios quilombolas. Na fundamentação teórica, vale-se de perspectivas elaboradas nos campos dos direitos humanos, dos direitos fundamentais, do multiculturalismo, da constituição dirigente e do novo constitucionalismo democrático latinoamericano. Nesse contexto, inicialmente, são explicitadas as bases teóricas do escrito e explicitados conceitos fundamentais para compreensão do tema. Após, discute como a questão da desapropriação enquanto forma de regularização fundiária é tratada pelos sujeitos e intervenientes na Ação Direta de Inconstitucionalidade n.º 3.239/DF. Além disso, discute se é válido ou não o emprego da desapropriação para o fim de titular comunidades quilombolas, a partir do caso dos kalungas, não sem antes explicitar aspectos gerais relativos à desapropriação. Finalmente, apresenta-se solução modular, a envolver, além da desapropriação, o reconhecimento das ocupações quilombolas e a declaração de nulidade e cancelamento de títulos e registros inválidos ou ineficazes de terras, como alternativas possíveis para regularizar os territórios quilombolas, com proposta de Interpretação Conforme à Constituição do artigo 13 do Decreto n.º 4.887/03, no julgamento da ação referida.

Page generated in 0.1127 seconds