• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Approche parcimonieuse pour l’imagerie 3D haute résolution de surface équivalente radar. / Sparse approach for high resolution 3D radar cross section imaging.

Benoudiba-Campanini, Thomas 13 July 2018 (has links)
La SER (Surface Équivalente Radar) est une grandeur caractérisant le pouvoir rétrodiffuseurd’une cible soumise à un champ électromagnétique. Dans de nombreuses applications,il est capital d’analyser et de contrôler la SER. L’imagerie 3D est l’outil adapté pourlocaliser et caractériser en trois dimensions les principaux contributeurs à la SER. Cependant,ce traitement est un problème de synthèse de Fourier qui n’est pas inversible car il y aplus d’inconnues que de données. Les méthodes conventionnelles telles que le Polar FormatAlgorithm, consistant en un reformatage des données avec complétion de zéro suivi d’unetransformée de Fourier inverse rapide, fournissent des résultats de qualité limitée.Dans ce travail, nous proposons une nouvelle méthode haute résolution. Elle est dénomméeSPRITE (pour SParse Radar Imaging TEchnique) et permet d’accroître considérablementla qualité des cartes de rétro-diffusion estimées. Elle repose sur une régularisation duproblème consistant en la prise en compte d’informations a priori de parcimonie et d’uneinformation de support. La solution est alors définie comme le minimiseur d’un critère pénaliséet contraint. L’optimisation est assurée par l’algorithme primal-dual ADMM (AlternatingDirection Method of Multiplier) dont une adaptation aux spécificités du problème mène à descalculs efficaces à l’aide de transformées de Fourier rapides.Finalement, la méthode est évaluée sur des données synthétiques et réelles. Comparativementà la méthode conventionnelle, la résolution est drastiquement accrue. Les images 3Dproduites sont alors un outil particulièrement adapté à l’analyse et au contrôle de SER. / The RCS (Radar Cross Section) is a quantity which characterizes the scattering power ofa target exposed to an electromagnetic field. Its analysis and control are important in manyapplications. 3D imaging is a suitable tool to accurately locate and characterize in 3D themain contributors to the RCS. However, this is a non-invertible Fourier synthesis problembecause the number of unknowns is larger than the number of data. Conventional methodssuch as the Polar Format Algorithm, which consists of data reformatting including zeropaddingfollowed by a fast inverse Fourier transform, provide results of limited quality.In this work, we propose a new high resolution method, named SPRITE (for SParse RadarImaging TEchnique), which considerably increases the quality of the estimated RCS maps. Itis based on a regularization scheme that accounts for information of sparsity and support. Thesolution is then defined as the minimizer of a penalized and constrained criterion. Optimizationis ensured by an appropriate adaptation of the ADMM (Alternating Direction Methodof Multiplier) algorithm that is able to quickly perform calculations using fast Fourier transforms.Finally, the method is evaluated on both simulated and real data. Compared to the conventionalmethod, the resolution is significantly increased and the images can support a betterRCS analysis and control.
512

Modèles paramétriques pour la tomographie sismique bayésienne / Parametric models for bayesian seismic tomography

Belhadj, Jihane 02 December 2016 (has links)
La tomographie des temps de première arrivée vise à retrouver un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés. Cette technique nécessite la résolution d’un problème inverse afin d’obtenir un modèle sismique cohérent avec les données observées. Il s'agit d'un problème mal posé pour lequel il n'y a aucune garantie quant à l'unicité de la solution. L’approche bayésienne permet d’estimer la distribution spatiale de la vitesse de propagation des ondes sismiques. Il en résulte une meilleure quantification des incertitudes associées. Cependant l’approche reste relativement coûteuse en temps de calcul, les algorithmes de Monte Carlo par chaînes de Markov (MCMC) classiquement utilisés pour échantillonner la loi a posteriori des paramètres n'étant efficaces que pour un nombre raisonnable de paramètres. Elle demande, de ce fait, une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres. Le sujet de cette thèse porte essentiellement sur cette problématique.Le premier modèle que nous considérons est basé sur un modèle de mosaïque aléatoire, le modèle de Jonhson-Mehl, dérivé des mosaïques de Voronoï déjà proposées en tomographie bayésienne. Contrairement à la mosaïque de Voronoï, les cellules de Johsnon-mehl ne sont pas forcément convexes et sont bornées par des portions d’hyperboloïdes, offrant ainsi des frontières lisses entre les cellules. Le deuxième modèle est, quant à lui, décrit par une combinaison linéaire de fonctions gaussiennes, centrées sur la réalisation d'un processus ponctuel de Poisson. Pour chaque modèle, nous présentons un exemple de validation sur des champs de vitesse simulés. Nous appliquons ensuite notre méthodologie à un modèle synthétique plus complexe qui sert de benchmark dans l'industrie pétrolière. Nous proposons enfin, un modèle de vitesse basé sur la théorie du compressive sensing pour reconstruire le champ de vitesse. Ce modèle, encore imparfait, ouvre plusieurs pistes de recherches futures.Dans ce travail, nous nous intéressons également à un jeu de données réelles acquises dans le contexte de la fracturation hydraulique. Nous développons dans ce contexte une méthode d'inférence bayésienne trans-dimensionnelle et hiérarchique afin de traiter efficacement la complexité du modèle à couches. / First arrival time tomography aims at inferring the seismic wave propagation velocity using experimental first arrival times. In our study, we rely on a Bayesian approach to estimate the wave velocity and the associated uncertainties. This approach incorporates the information provided by the data and the prior knowledge of the velocity model. Bayesian tomography allows for a better estimation of wave velocity as well asassociated uncertainties. However, this approach remains fairly expensive, and MCMC algorithms that are used to sample the posterior distribution are efficient only as long as the number of parameters remains within reason. Hence, their use requires a careful reflection both on the parameterization of the velocity model, in order to reduce the problem's dimension, and on the definition of the prior distribution of the parameters. In this thesis, we introduce new parsimonious parameterizations enabling to accurately reproduce the wave velocity field with the associated uncertainties.The first parametric model that we propose uses a random Johnson-Mehl tessellation, a variation of the Voronoï tessellation. The second one uses Gaussian kernels as basis functions. It is especially adapted to the detection of seismic wave velocity anomalies. Each anomaly isconsidered to be a linear combination of these basis functions localized at the realization of a Poisson point process. We first illustrate the tomography results with a synthetic velocity model, which contains two small anomalies. We then apply our methodology to a more advanced and more realistic synthetic model that serves as a benchmark in the oil industry. The tomography results reveal the ability of our algorithm to map the velocity heterogeneitieswith precision using few parameters. Finally, we propose a new parametric model based on the compressed sensing techniques. The first results are encouraging. However, the model still has some weakness related to the uncertainties estimation.In addition, we analyse real data in the context of induced microseismicity. In this context, we develop a trans-dimensional and hierarchical approach in order to deal with the full complexity of the layered model.
513

Analyse de vitesse par migration itérative : vers une meilleure prise en compte des réflexions multiples / Iterative Migration Velocity Analysis : extension to surface-related multiple reflections

Cocher, Emmanuel 03 March 2017 (has links)
Les expériences de sismique active sont couramment utilisées pour estimer la valeur d'un modèle de vitesse de propagation desondes P dans le sous-sol. Les méthodes dites d'« analyse de vitesse par migration » ont pour but la détermination d'un macro-modèle de vitesse, lisse, et responsable de la cinématique de propagation des ondes. Dans une première étape de « migration », une image de réflectivité est obtenue à partir des données enregistrées en utilisant une première estimation du macro-modèle. Cette image dépend d’un paramètre additionnel permettant dans un second temps d’estimer la qualité du macro-modèle puis de l'améliorer. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. En particulier, elles ne prennent pas en compte les réflexions multiples, habituellement retirées des données avant traitement. Cette étape reste cependant délicate et on se prive alors de l'information supplémentaire contenue dans les multiples.Nous proposons dans cette étude une stratégie d’optimisation imbriquée en itérant l'étape de migration avant de remettre à jour le macro-modèle. La migration itérative produit des images de réflectivité satisfaisantes pour l'analyse de vitesse et s’étend naturellement aux réflexions multiples. Un désavantage de la méthode est son coût de calcul. Un pseudo-inverse de l'opérateur de modélisation est alors utilisé comme préconditionneur pour limiter le nombre d’itérations dans la boucle interne. Une autre difficulté est l'instabilité de la remise à jour du modèle de vitesse calculée pour des modèles de réflectivité successifs proches les uns des autres. Une nouvelle approche plus robustesse est proposée, valide aussi dans le cas de multiples. Son efficacité est testée sur des jeux de données synthétiques 2D. / Active seismic experiments are commonly used to recover a model of the P-wave propagation velocity in the subsurface. “Migration Velocity Analysis” techniques aim at deriving a smooth background velocity model controlling the kinematics of wave propagation. First, a reflectivity image is obtained by “migration” of observed data using a first estimate of the background velocity. This image depends on an additional “subsurface-offset” parameter allowing to assess the quality of the background velocity model with a focusing criterion and to correct it. However classical migration techniques do not provide a sufficiently accurate reflectivity image, leading to inconsistent velocity updates. In particular they do not take into account multiple reflections, usually regarded as noise and removed from the data before processing. Multiple removal is however a difficult step, and additional information contained in multiples is discarded.In this thesis, we propose to determine the reflectivity model by iterative migration before subsequent velocity analysis, leading to a nested optimisation procedure. Iterative migration yields accurate reflectivity image and extends naturally to the case of multiples. One of its disadvantages is the associated increased computational cost. To limit the number of iterations in the innerloop, a preconditioner based on a pseudo-inverse of the modelling operator is introduced. Another difficulty is the instability of the velocity update obtained with very close successive reflectivity models. We propose a modified approach, valid in the presence of multiples, and discussed through applications on 2D synthetic data sets.
514

Configuration automatique d’un solveur générique intégrant des techniques de décomposition arborescente pour la résolution de problèmes de satisfaction de contraintes / Automatic configuration of generic solver embedding tree-decomposition techniques for solving constraint satisfaction problems

Blet, Loïc 30 September 2015 (has links)
La programmation par contraintes intègre des algorithmes de résolution génériques dans des langages de modélisation déclaratifs basés sur les contraintes : ces langages permettent de décrire des problèmes combinatoires sous la forme d’un ensemble de variables devant prendre leurs valeurs dans des domaines en satisfaisant des contraintes. Nous introduisons dans cette thèse un algorithme de résolution générique paramétré par : — une stratégie d’exploration de l’espace de recherche, à choisir parmi, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, et backtracking with tree decomposition ; — une heuristique de choix de variables, à choisir parmi, min-domain/ddeg et min-domain/wdeg ; — une technique de propagation de contraintes, à choisir parmi, forward checking et maintaining arc consistency. Ainsi, cet algorithme générique s’instancie en vingt-quatre configurations différentes ; certaines correspondant à des algorithmes connus, d’autres étant nouvelles. Ces vingt- quatre configurations ont été comparées expérimentalement sur un benchmark de plus de mille instances, chaque configuration étant exécutée plusieurs fois sur chaque instance pour tenir compte du non déterminisme des exécutions. Des tests statistiques sont utilisés pour comparer les performances. Cette évaluation expérimentale a permis de mieux comprendre la complémentarité des différents mécanismes de résolution, avec une attention particulière portée sur la capacité à tirer parti de la structure des instances pour accélérer la résolution. Nous identifions notamment treize configurations complémentaires telles que chaque instance de notre benchmark est bien résolue par au moins une des treize configurations. Une deuxième contribution de la thèse est d’introduire un sélecteur capable de choisir automatiquement la meilleure configuration de notre algorithme générique pour chaque nouvelle instance à résoudre : nous décrivons chaque instance par un ensemble de descripteurs et nous utilisons des techniques d’apprentissage automatique pour construire un modèle de choix de configuration à partir de ces descripteurs. Sachant que l’apprentissage est généralement plus difficile quand il y a beaucoup de configurations, nous exprimons le problème du choix du sous-ensemble de configurations pouvant être sélectionnées comme un problème de couverture d’ensemble et nous comparons deux critères de choix : le premier vise à maximiser le nombre d’instances résolues par au moins une configuration et le second vise à maximiser le nombre d’instances pour lesquelles il y a une bonne configuration disponible. Nous montrons expérimentalement que la seconde stratégie obtient généralement de meilleurs résultats, et que le sélecteur obtient de meilleures performances que chacune de nos vingt-quatre configurations initiales. / Constraint programming integrates generic solving algorithms within declarative languages based on constraints : these languages allow us to describe combinatorial problems as a set of variables which have to take their values in domains while satisfying constraints. Numerous real-life problems can be modelled in such a way, as for instance, planification problems, scheduling problems, . . . These problems are NP-complete in the general case of finite domains. We introduce in this work a generic solving algorithm parameterized by : — a strategy for exploring the search space, to be chosen from the following six, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, and backtracking with tree decomposition ; — a variable ordering heuristic, to be chosen from the following two, min-domain/ddeg and min-domain/wdeg ; — a constraint propagation technique, to be chosen from the following two, forward checking and maintaining arc consistency. Thus, this algorithm leads to 24 different configurations ; some corresponding to already known algorithms, others being new. These 24 configurations have been com- pared experimentally on a benchmark of more than a thousand instances, each configuration being executed several times to take into account the non-determinism of the executions, and a statistical test has been used to compare performances. This experimental evaluation allowed us to better understand the complementarity of the different solving mechanisms, with a focus on the ability to exploit the structure of the instances to speed up the solving process. We identify 13 complementary configurations such that every instance of our benchmark is well solved by at least one of the 13 configurations. A second contribution of this work is to introduce a selector able to choose automatically the best configuration of our generic solver for each new instance to be solved : we describe each instance by a set of features and we use machine learning techniques to build a model to choose a configuration based on these features. Knowing that the learning process is generally harder when there are many configurations to choose from, we state the problem of choosing a subset of configurations that can be picked as a set covering problem and we compare two criterion : the first one aims to maximize the number of instances solved by at least one configuration and the second one aims to maximize the number of instances for which there is a good configuration available. We show experimentally that the second strategy obtains generally better results and that the selector obtains better performances than each of the 24 initial configurations.
515

Approche décentralisée de l'apprentissage constructiviste et modélisation multi-agent du problème d'amorçage de l'apprentissage sensorimoteur en environnement continu : application à l'intelligence ambiante / Bootstrapping sensory-motor patterns for a constructivist learning system in continuous environments based on decentralized multi-agent approach : application to ambient intelligence

Mazac, Sébastien 06 October 2015 (has links)
Nous proposons donc un modèle original d'apprentissage constructiviste adapté pour un système d'AmI. Ce modèle repose sur une approche décentralisée, permettant de multiples implémentations convenant à un environnement hétérogène. Dans les environnements réels continus sans modélisation à priori, se pose la question de la modélisation des structures élémentaires de représentation et particulièrement le problème d'amorçage de l'apprentissage sensorimoteur (comme décrit par [Kuipers06]). Dans le cadre du modèle général proposé, nous explicitons ce problème particulier et proposons de le traiter comme une forme d'auto-organisation modélisée par un système multi-agent. Cette approche permet de construire des motifs d'interaction élémentaires à partir des seules données brutes, sur lesquels peut reposer la construction d'une représentation plus élaborée (voir [Mazac14]). Nous présentons enfin une série d'expérimentations illustrant la résolution de ce problème d'amorçage : tout d'abord grâce à un environnement simulé, qui permet de maitriser les régularités de l'environnement et autorise des expérimentations rapides ; ensuite en implémentant ce système d'apprentissage au sein d'un environnement d'AmI réel. Pour cela le modèle est intégré dans le système d'AmI développé par l'entreprise partenaire de cette thèse CIFRE. Puis nous présentons une possible application industrielle des résultats de cette première étape implémentée d'amorçage de l'apprentissage sensorimoteur. Nous concluons par l'analyse des résultats et des perspectives de ce type d'approche pour l'AmI et l'application en général de l'IA aux systèmes réels en environnements continus / The theory of cognitive development from Jean Piaget (1923) is a constructivist perspective of learning that has substantially influenced cognitive science domain. Within AI, lots of works have tried to take inspiration from this paradigm since the beginning of the discipline. Indeed it seems that constructivism is a possible trail in order to overcome the limitations of classical techniques stemming from cognitivism or connectionism and create autonomous agents, fitted with strong adaptation ability within their environment, modelled on biological organisms. Potential applications concern intelligent agents in interaction with a complex environment, with objectives that cannot be predefined. Like robotics, Ambient Intelligence (AmI) is a rich and ambitious paradigm that represents a high complexity challenge for AI. In particular, as a part of constructivist theory, the agent has to build a representation of the world that relies on the learning of sensori-motor patterns starting from its own experience only. This step is difficult to set up for systems in continuous environments, using raw data from sensors without a priori modelling.With the use of multi-agent systems, we investigate the development of new techniques in order to adapt constructivist approach of learning on actual cases. Therefore, we use ambient intelligence as a reference domain for the application of our approach
516

Access control and inference problem in data integration systems / Problème d'inférence et contrôle d'accès dans les systèmes d'intégration de données

Haddad, Mehdi 01 December 2014 (has links)
Dans cette thèse nous nous intéressons au contrôle d’accès dans un système issu d’une intégration de données. Dans un système d’intégration de données un médiateur est défini. Ce médiateur a pour objectif d’offrir un point d’entrée unique à un ensemble de sources hétérogènes. Dans ce type d’architecture, l’aspect sécurité, et en particulier le contrôle d’accès, pose un défi majeur. En effet, chaque source, ayant été construite indépendamment, définit sa propre politique de contrôle d’accès. Le problème qui émerge de ce contexte est alors le suivant : "Comment définir une politique représentative au niveau du médiateur et qui permet de préserver les politiques des sources de données impliquées dans la construction du médiateur?" Préserver les politiques des sources de données signifie qu’un accès interdit au niveau d’une source doit également l’être au niveau du médiateur. Aussi, la politique du médiateur doit préserver les données des accès indirects. Un accès indirect consiste à synthétiser une information sensible en combinant des informations non sensibles et les liens sémantiques entre ces informations. Détecter tous les accès indirects dans un système est appelé problème d’inférence. Dans ce manuscrit, nous proposons une méthodologie incrémentale qui permet d’aborder le problème d’inférence dans un contexte d’intégration de données. Cette méthodologie est composée de trois phases. La première, phase de propagation, permet de combiner les politiques sources et ainsi générer une politique préliminaire au niveau médiateur. La deuxième phase, phase de détection, caractérise le rôle que peuvent jouer les relations sémantiques entre données afin d’inférer une information confidentielle. Par la suite, nous introduisant, au sein de cette phase, une approche basée sur les graphes afin d’énumérer tous les accès indirects qui peuvent induire l’accès à une information sensible. Afin de remédier aux accès indirects détectés nous introduisons la phase de reconfiguration qui propose deux solutions. La première solution est mise en œuvre au niveau conceptuel. La seconde solution est mise en œuvre lors de l’exécution. / In this thesis we are interested in controlling the access to a data integration system. In a data integration system, a mediator is defined. This mediator aims at providing a unique entry point to several heterogeneous sources. In this kind of architecture security aspects and access control in particular represent a major challenge. Indeed, every source, designed independently of the others, defines its own access control policy. The problem is then: "How to define a representative policy at the mediator level that preserves sources’ policies?" Preserving the sources’ policies means that a prohibited access at the source level should also be prohibited at the mediator level. Also, the policy of the mediator needs to protect data against indirect accesses. An indirect access occurs when one could synthesize sensitive information from the combination of non sensitive information and semantic constraints. Detecting all indirect accesses in a given system is referred to as the inference problem. In this manuscript, we propose an incremental methodology able to tackle the inference problem in a data integration context. This methodology has three phases. The first phase, the propagation phase, allows combining source policies and therefore generating a preliminary policy at the mediator level. The second phase, the detection phase, characterizes the role of semantic constraints in inducing inference about sensitive information. We also introduce in this phase a graph-based approach able to enumerate all indirect access that could induce accessing sensitive information. In order to deal with previously detected indirect access, we introduce the reconfiguration phase which provides two solutions. The first solution could be implemented at design time. The second solution could be implemented at runtime.
517

Le problème d’équivalence pour les variétés de Cauchy-Riemann en dimension 5 / The equivalence problem for CR-manifolds in dimension 5

Pocchiola, Samuel 30 September 2014 (has links)
Ce mémoire est une contribution à la résolution du problème d'équivalence pour les variétés de Cauchy-Riemann en dimension inférieure ou égale à 5. On traite d'abord du cas des variétés CR de dimension 5, qui sont 2-nondégénérées et de rang de Levi constant égal à 1. Pour une telle variété, on obtient deux invariants, J et W, dont l'annulation simultanée caractérise l'équivalence locale à une variété modèle, le tube au-dessus du cône de lumière. Si l'un des deux invariants ne s'annule pas, on construit un parallélisme absolu, i.e. on montre que le problème d'équivalence se réduit à un problème d'équivalence entre {e}-structures de dimension 5. On étudie ensuite le problème d'équivalence pour certaines variétés CR de dimension 4 appelées variétés de Engel. Ce problème est résolu par la construction d'une connexion de Cartan sur un fibré principal de dimension 5. On traite ensuite du cas de variétés CR de dimension 5 dont le fibré CR vérifie une certaine hypothèse de dégénérecence. Le problème d'équivalence est résolu dans ce cas par la construction d'une connexion de Cartan sur un fibré de dimension 6. Enfin, on détermine les algèbres de Lie des automorphismes infinitésimaux des modèles pour les trois classes de variétés CR étudiées. / This memoir contributes to solve the equivalence problem for CR-manifolds in dimension up to 5. We first deal with the equivalence problem for 5-dimensional CR-manifolds which are 2-nondegenerate and of constant Levi rank 1. For such a manifold M, we find two invariants, J and W, the annulation of which gives a necessary and sufficient condition for M to be locally CR-equivalent to a model hypersurface, the tube over the light cone. If one of the invariants does not vanish on M, we construct an absolute parallelism on M, that is we show that the equivalence problem reduces to an equivalence problem between 5-dimensional {e}-structures. We then study the equivalence problem for 4-dimensional CR-manifolds which are known as Engel manifolds. This problem is solved by the construction of a canonical Cartan connection on a 5-dimensional bundle through Cartan's equivalence method. We also study the equivalence problem for 5-dimensional CR-manifolds whose CR-bundle satisfies a certain degeneracy assumption, and show that in this case, the problem is solved by the construction of a Cartan connection on a 6-dimensional bundle. The last part of this memoir is devoted to the determination of the Lie algebra of infinitesimal automorphisms for the model manifolds of the three previous classes.
518

Minimal sets, existence and regularity / Ensembles minimaux, existence et régularité

Fang, Yangqin 21 September 2015 (has links)
Cette thèse s’intéresse principalement à l’existence et à la régularité desensembles minimaux. On commence par montrer, dans le chapitre 3, que le problème de Plateau étudié par Reifenberg admet au moins une solution. C’est-à-dire que, si l’onse donne un ensemble compact B⊂R^n et un sous-groupe L du groupe d’homologie de Čech H_(d-1) (B;G) de dimension (d-1) sur un groupe abelien G, on montre qu’il existe un ensemble compact E⊃B tel que L est contenu dans le noyau de l’homomorphisme H_(d-1) (B;G)→H_(d-1) (E;G) induit par l’application d’inclusion B→E, et pour lequel la mesure de Hausdorff H^d (E∖B) est minimale (sous ces contraintes). Ensuite, on montre au chapitre 4, que pour tout ensemble presque minimal glissant E de dimension 2, dans un domaine régulier Σ ressemblant localement à un demi espace, associé à la frontière glissante ∂Σ, et tel que E⊃∂Σ, il se trouve qu’à la frontière E est localement équivalent, par un homéomorphisme biHöldérien qui préserve la frontière, à un cône minimal glissant contenu dans un demi plan Ω, avec frontière glissante ∂Ω. De plus les seuls cônes minimaux possibles dans ce cas sont ∂Ω seul, ou son union avec un cône de type P_+ ou Y_+. / This thesis focuses on the existence and regularity of minimal sets. First we show, in Chapter 3, that there exists (at least) a minimizerfor Reifenberg Plateau problems. That is, Given a compact set B⊂R^n, and a subgroup L of the Čech homology group H_(d-1) (B;G) of dimension (d-1)over an abelian group G, we will show that there exists a compact set E⊃B such that L is contained in the kernel of the homomorphism H_(d-1) (B;G)→H_(d-1) (E;G) induced by the natural inclusion map B→E, and such that the Hausdorff measure H^d (E∖B) is minimal under these constraints. Next we will show, in Chapter 4, that if E is a sliding almost minimal set of dimension 2, in a smooth domain Σ that looks locally like a half space, and with sliding boundary , and if in addition E⊃∂Σ, then, near every point of the boundary ∂Σ, E is locally biHölder equivalent to a sliding minimal cone (in a half space Ω, and with sliding boundary ∂Ω). In addition the only possible sliding minimal cones in this case are ∂Ω or the union of ∂Ω with a cone of type P_+ or Y_+.
519

Acoustic imaging in enclosed spaces / Imagerie acoustique en espace clos

Pereira, Antonio 12 July 2013 (has links)
Ce travail de recherche porte sur le problème de l'identification des sources de bruit en espace clos. La motivation principale était de proposer une technique capable de localiser et quantifier les sources de bruit à l'intérieur des véhicules industriels, d'une manière efficace en temps. Dans cette optique, la méthode pourrait être utilisée par les industriels à des fins de réduction de bruit, et donc construire des véhicules plus silencieux. Un modèle simplifié basé sur la formulation par sources équivalentes a été utilisé pour résoudre le problème. Nous montrerons que le problème est mal conditionné, dans le sens où il est très sensible face aux erreurs de mesure, et donc des techniques dites de régularisation sont nécessaires. Une étude détaillée de cette question, en particulier le réglage de ce qu'on appelle de paramètre de régularisation, a été important pour assurer la stabilité de la solution. En particulier, un critère de régularisation basé sur une approche bayésienne s'est montré très robuste pour ajuster le paramètre de régularisation de manière optimale. L'application cible concernant des environnements intérieurs relativement grands, nous a imposé des difficultés supplémentaires, à savoir: (a) le positionnement de l'antenne de capteurs à l'intérieur de l'espace; (b) le nombre d'inconnues (sources potentielles) beaucoup plus important que le nombre de positions de mesure. Une formulation par pondération itérative a ensuite été proposé pour surmonter les problèmes ci-dessus de manière à: (1) corriger pour le positionnement de l'antenne de capteurs dans l'habitacle ; (2) obtenir des résultats corrects en terme de quantification des sources identifiées. Par ailleurs, l'approche itérative nous a conduit à des résultats avec une meilleure résolution spatiale ainsi qu'une meilleure dynamique. Plusieurs études numériques ont été réalisées afin de valider la méthode ainsi que d'évaluer sa sensibilité face aux erreurs de modèle. En particulier, nous avons montré que l'approche est affectée par des conditions non-anéchoïques, dans le sens où les réflexions sont identifiées comme des vraies sources. Une technique de post-traitement qui permet de distinguer entre les chemins directs et réverbérants a été étudiée. La dernière partie de cette thèse porte sur des validations expérimentales et applications pratiques de la méthode. Une antenne sphérique constituée d'une sphère rigide et 31 microphones a été construite pour les tests expérimentaux. Plusieurs validations académiques ont été réalisées dans des environnements semi-anéchoïques, et nous ont illustré les avantages et limites de la méthode. Enfin, l'approche a été testé dans une application pratique, qui a consisté à identifier les sources de bruit ou faiblesses acoustiques à l'intérieur d'un bus. / This thesis is concerned with the problem of noise source identification in closed spaces. The main motivation was to propose a technique which allows to locate and quantify noise sources within industrial vehicles, in a time-effective manner. In turn, the technique might be used by manufacturers for noise abatement purposes such as to provide quieter vehicles. A simplified model based on the equivalent source formulation was used to tackle the problem. It was shown that the problem is ill-conditioned, in the sense that it is very sensitive to errors in measurement data, thus regularization techniques were required. A detailed study of this issue, in particular the tuning of the so-called regularization parameter, was of importance to ensure the stability of the solution. In particular, a Bayesian regularization criterion was shown to be a very robust approach to optimally adjust the regularization parameter in an automated way. The target application concerns very large interior environments, which imposes additional difficulties, namely: (a) the positioning of the measurement array inside the enclosure; (b) a number of unknowns ("candidate" sources) much larger than the number of measurement positions. An iterative weighted formulation was then proposed to overcome the above issues by: first correct for the positioning of the array within the enclosure and second iteratively solve the problem in order to obtain a correct source quantification. In addition, the iterative approach has provided results with an enhanced spatial resolution and dynamic range. Several numerical studies have been carried out to validate the method as well as to evaluate its sensitivity to modeling errors. In particular, it was shown that the approach is affected by non-anechoic conditions, in the sense that reflections are identified as "real" sources. A post-processing technique which helps to distinguish between direct and reverberant paths has been discussed. The last part of the thesis was concerned with experimental validations and practical applications of the method. A custom spherical array consisting of a rigid sphere and 31 microphones has been built for the experimental tests. Several academic experimental validations have been carried out in semi-anechoic environments, which illustrated the advantages and limits of the method. Finally, the approach was tested in a practical application, which consisted in identifying noise sources inside a bus at driving conditions.
520

Spatial separation of sound sources / Séparation spatiale des sources sonores

Dong, Bin 14 April 2014 (has links)
La séparation aveugle de sources est une technique prometteuse pour l'identification, la localisation, et la classification des sources sonores. L'objectif de cette thèse est de proposer des méthodes pour séparer des sources sonores incohérentes qui peuvent se chevaucher à la fois dans les domaines spatial et fréquentiel par l'exploitation de l'information spatiale. De telles méthodes sont d'intérêt dans les applications acoustiques nécessitant l'identification et la classification des sources sonores ayant des origines physiques différentes. Le principe fondamental de toutes les méthodes proposées se décrit en deux étapes, la première étant relative à la reconstruction du champ source (comme par exemple à l'aide de l'holographie acoustique de champ proche) et la seconde à la séparation aveugle de sources. Spécifiquement, l'ensemble complexe des sources est d'abord décomposé en une combinaison linéaire de fonctions de base spatiales dont les coefficients sont définis en rétropropageant les pressions mesurées par un réseau de microphones sur le domaine source. Cela conduit à une formulation similaire, mais pas identique, à la séparation aveugle de sources. Dans la seconde étape, ces coefficients sont séparés en variables latentes décorrélées, affectées à des “sources virtuelles” incohérentes. Il est montré que ces dernières sont définies par une rotation arbitraire. Un ensemble unique de sources sonores est finalement résolu par la recherche de la rotation (par gradient conjugué dans la variété Stiefel des matrices unitaires) qui minimise certains critères spatiaux, tels que la variance spatiale, l'entropie spatiale, ou l'orthogonalité spatiale. Il en résulte la proposition de trois critères de séparation à savoir la “moindre variance spatiale”, la “moindre entropie spatiale”, et la “décorrélation spatiale”, respectivement. De plus, la condition sous laquelle la décorrélation classique (analyse en composantes principales) peut résoudre le problème est établit de une manière rigoureuse. Le même concept d'entropie spatiale, qui est au cœur de cette thèse, est également exploité dans la définition d'un nouveau critère, la courbe en L entropique, qui permet de déterminer le nombre de sources sonores actives sur le domaine source d'intérêt. L'idée consiste à considérer le nombre de sources qui réalise le meilleur compromis entre une faible entropie spatiale (comme prévu à partir de sources compactes) et une faible entropie statistique (comme prévu à partir d'une faible erreur résiduelle). / Blind source separation is a promising technique for the identification, localization, and ranking of sound sources. The aim of this dissertation is to offer methods for separating incoherent sound sources which may overlap in both the space and frequency domains by exploiting spatial information. This is found of interest in acoustical applications involving the identification and ranking of sound sources stemming from different physical origins. The fundamental principle of all proposed methods proceeds in two steps, the first one being reminiscent to source reconstruction (e.g. as in near-field acoustical holography) and the second one to blind source separation. Specifically, the source mixture is first expanded into a linear combination of spatial basis functions whose coefficients are set by backpropagating the pressures measured by an array of microphones to the source domain. This leads to a formulation similar, but no identical, to blind source separation. In the second step, these coefficients are blindly separated into uncorrelated latent variables, assigned to incoherent “virtual sources”. These are shown to be defined up to an arbitrary rotation. A unique set of sound sources is finally recovered by searching for that rotation (conjugate gradient descent in the Stiefel manifold of unitary matrices) which minimizes some spatial criteria, such as spatial variance, spatial entropy, or spatial orthogonality. This results in the proposal of three separation criteria coined “least spatial variance”, “least spatial entropy”, and “spatial decorrelation”, respectively. Meanwhile, the condition under which classical decorrelation (principal component analysis) can solve the problem is deduced in a rigorous way. The same concept of spatial entropy, which is central to the dissertation, is also exploited in defining a new criterion, the entropic L-curve, dedicated to determining the number of active sound sources on the source domain of interest. The idea consists in considering the number of sources that achieves the best compromise between a low spatial entropy (as expected from compact sources) and a low statistical entropy (as expected from a low residual error).

Page generated in 0.086 seconds