• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 24
  • 5
  • Tagged with
  • 66
  • 38
  • 13
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Apport de l'échantillonnage aléatoire à temps quantifié pour le traitement en bande de base dans un contexte radio logicielle restreinte / Contribution of the time-quantized random sampling technique applied to the base-band stage of software defined radio receivers

Maalej, Asma 23 May 2012 (has links)
Ces travaux de recherche s’inscrivent dans le cadre de la conception de récepteurs multistandard optimisés pouvant traiter des signaux à spécifications hétérogènes. L’idée est d’appliquer l’échantillonnage aléatoire au niveau de l’étage en bande de base d’un récepteur radio logicielle restreinte afin de tirer profit de son pouvoir d’anti-repliement. La nouveauté dans ces travaux est l’étude analytique de la réduction du repliement spectral par l’échantillonnage aléatoire à temps quantifié, candidat favorable à l’implémentation matérielle. Une deuxième contribution concerne aussi l’étude analytique de l’échantillonnage pseudo-aléatoire à temps quantifié (TQ-PRS) dont l’importance réside en sa grande facilité d’implémentation matérielle. Les formulations théoriques ont permis d’estimer l’atténuation des répliques en fonction du facteur de la quantification temporelle et du facteur du sur-échantillonnage. Les mesures de l’atténuation du repliement spectral ont permis de dimensionner l’étage en bande de base d’une architecture de réception multistandard. Le dimensionnement s’intéresse à différentes configurations de l’étage en bande de base régies par les performances du convertisseur analogique numérique (ADC) utilisé.Les travaux de recherche ont démontré que l’application du TQ-PRS au niveau de l’ADC mène soit à une réduction de l’ordre du filtre anti-repliement soit à une réduction de la fréquence d’échantillonnage. Un bilan global de la consommation de puissance a permis un gain de 30% de la consommation de l’étage en bande de base analogique. En tenant compte du générateur de l’horloge TQ-PRS et de l’étage de sélection numérique du canal, ce gain devient 25%. / The work presented in this Ph.D. dissertation deals with the design of multistandard radio receivers that process signals with heterogeneous specifications. The originality of these research activities comes from the application of random sampling at the baseband stage of a software defined radio receiver. The purpose behind the choice of random sampling is to take advantage of its alias-free feature. The originality of this work is the analytic proof of the alias attenuation feature of the time quantized random sampling, the implementation version of the random sampling. A second contribution concerns also the analytic study of the simplest implementation version of the random sampling, the time quantized pseudo-random sampling (TQ-PRS). Theoretical formulas allow the estimation of the alias attenuation in terms of time quantization factor and oversampling ratio. Alias attenuation measurement permits to design the baseband stage of the proposed multistandard radio receiver architecture. The design concerns different configuration of the baseband stage according to the performances of the used analog-to-digital converters (ADC). The TQPRS allows decreasing the anti-aliasing filter order or the sampling frequency. The design of the baseband stage reveals a difference on the choice of the time quantization factor for each standard. The power consumption budget analysis demonstrates a power consumption gain of 30% regarding the power consumption of the analog baseband stage. This gain becomes 27.5% when the TQ-PRS clock and the digital canal selection stages are considered.
22

Etude de la variabilité intra-balle des caractéristiques technologiques des fibres de coton produites en Afrique de l'Ouest et du Centre

Aboe, Modeste 05 March 2012 (has links) (PDF)
Grâce aux développements techniques et technologiques des dernières décennies, le commerce international du coton passe graduellement d'un classement manuel et visuel à un classement à base de résultats de mesures instrumentales. Or adopter une technique requiert d'en étudier ses modalités et ses conditions d'utilisation. Aux USA, des études périodiques de variabilité permettent d'assortir ces résultats d'analyse de tolérances commerciales afin de limiter la fréquence des litiges. Adopter en Afrique les règles et les méthodes de mesure des USA exposerait à un risque de litige accru si les conditions de production déterminent un coton de qualité plus variable. Pour la première fois en Afrique, nous avons mené une étude de la variabilité des caractéristiques technologiques des fibres dans huit pays d'Afrique de l'Ouest et du Centre : Bénin, Burkina-Faso, Cameroun, Côte d'Ivoire, Mali, Sénégal, Tchad et Togo. Pendant deux saisons de production, nous avons réalisé une expérimentation à trois types de prélèvements de fibres : 1) huit échantillons par balle au sein de 215 balles produites dans 27 usines d'égrenage, 2) un échantillon par balle de 4286 balles constituées en séries de 200 balles consécutives en saison 1 et de 100 balles consécutives en saison 2 dans les mêmes usines, 3) deux échantillons par balle (un en haut et un en bas) sur 817 balles constituées en séries de vingt balles consécutives hebdomadairement dans cinq usines au cours de la saison 2. Ensuite, les échantillons des 5318 balles échantillonnées furent analysés sur une Chaîne de Mesures Instrumentales (CMI) dans un laboratoire respectant les recommandations internationales et les conditions d'ambiance contrôlées. L'analyse statistique des données recueillies a permis d'évaluer le niveau de variabilité de chacune des caractéristiques technologiques étudiées, au sein des balles et entre celles-ci. Une méthode d'échantillonnage et de réalisation des analyses sur CMI est proposée pour réaliser le classement des balles de coton d'Afrique de l'Ouest et du Centre à partir de résultats précis et répétables respectant les règles commerciales établies au niveau mondial.
23

Estimation des données manquantes par la métrologie virtuelle pour l'amélioration du régulateur Run-To-Run dans le domaine des semi-conducteurs / Estimation of missing data by virtual metrology for the improvement of the Run-To-Run controller in the field of semiconductors

Jebri, Mohamed Ali 26 January 2018 (has links)
La thématique abordée porte sur la métrologie virtuelle (VM) pour estimer les données manquantes durant les processus de fabrications des semi-conducteurs. L'utilisation de la métrologie virtuelle permet également de fournir les mesures logicielles (estimations) des sorties pour alimenter les régulateurs run-to-run (R2R) mis en place pour le contrôle de la qualité des produits fabriqués. Pour remédier aux problèmes liés au retard de mesures causé par l'échantillonnage statique imposé par la stratégie et les équipements mis en place, notre contribution dans cette thèse est d'introduire la notion de l'échantillonnage dynamique intelligent. Cette stratégie est basée sur un algorithme qui prend en compte la condition de voisinage permettant d'éviter la mesure réelle même si l'échantillonnage statique l'exige. Cela permet de réduire le nombre de mesures réelles, le temps du cycle et le coût de production. Cette approche est assurée par un module de métrologie virtuelle (VM) que nous avons développé et qui peut être intégré dans une boucle de régulation R2R. Les résultats obtenus ont été validés sur des exemples académiques et sur des données réelles fournies par notre partenaire STMicroelectronics de Rousset concernant un processus chemical mechanical planarization (CMP). Ces données réelles ont permis également de valider les résultats obtenus de la métrologie virtuelle pour les fournir ensuite aux régulateurs R2R (ayant besoin de l'estimation de ces données). / The addressed work is about the virtual metrology (VM) for estimating missing data during semiconductor manufacturing processes. The use of virtual metrology tool also makes it possible to provide the software measurements (estimations) of the outputs to feed the run-to-run (R2R) controllers set up for the quality control of the manufactured products.To address these issues related to the delay of measurements caused by the static sampling imposed by the strategy and the equipments put in place, our contribution in this thesis is to introduce the notion of the dynamic dynamic sampling. This strategy is based on an algorithm that considers the neighborhood condition to avoid the actual measurement even if the static sampling requires it. This reduces the number of actual measurements, the cycle time and the cost of production. This approach is provided by a virtual metrology module (VM) that we have developed and which can be integrated into an R2R control loop. The obtained results were validated on academic examples and on real data provided by our partner STMicroelectronics of Rousset from a chemical mechanical planarization (CMP) process. This real data also enabled the results obtained from the virtual metrology to be validated and then supplied to the R2R regulators (who need the estimation of these data).
24

Contribution au diagnostic de machines électromécaniques : Exploitation des signaux électriques et de la vitesse instantanée

Ibrahim, Ali 10 March 2009 (has links) (PDF)
Cette Thèse aborde le diagnostic des défauts mécaniques des machines électromécaniques par traitement des signaux électriques (courants et tensions) issus des telles machines et reçus sur un ensemble des capteurs, et essayer d'extraire et de séparer les différentes composantes, électriques ou mécaniques, qui existent. Nous procédons par une modélisation de la machine asynchrone et du défaut de roulement pour expliquer le phénomène physique mis en jeu lors de l'apparition de ce type des défauts. Les outils de traitement du signal dédiés à l'analyse cyclostationnaire peuvent apporter de nouvelles solutions. Nous associons ces outils à l'approche classique de soustraction de bruit qui consiste à retrouver dans un signal donné tout ce qui est dû à un autre signal (mécanique → électrique et électrique → mécanique). Pour valider les études faites sur les signaux électriques, nous traitons aussi les signaux vibratoires. Il est nécessaire de suivre l'influence du défaut tout au long de la chaîne cinématique et d'étudier les transferts des variables mécaniques vers les variables électriques au sein de la machine électrique. La modélisation montre que ce transfert passe à travers la vitesse instantanée, il est donc important de vérifier la présence d'information relative au défaut sur celle-ci. Les défauts de roulement sont ciblés et nous proposons quelques moyens permettant l'utilisation de la vitesse instantanée comme indicateur de défaillances.
25

Restauration en échantillonnage irrégulier. Théorie et applications aux images et signaux satellitaires.

Julien, Caron 03 May 2012 (has links) (PDF)
Les performances des instruments d'acquisition satellitaire progressent rapidement grâce au développement des technologies mais aussi grâce à la compréhension et l'intégration des phénomènes physiques complexes intervenant lors de l'acquisition. Cette thèse traite de plusieurs problèmes d'échantillonnage irrégulier dont les micro-vibrations des satellites dits push-broom tels que SPOT5 et les récents satellites Pléiades dont les capacités en imagerie permettent la détermination de modèles d'élévation très précis. Nous traitons aussi de l'inversion d'interferogrammes en spectrogrammétrie où l'irrégularité de l'échantillonnage est liée a la précision d'usinage des composants réfléchissants. Les micro-vibrations dans le cas du tangage sont estimées à partir d'une nappe de disparité altérée et non-dense par contraintes de parcimonie. Nous montrons expérimentalement que ce modèle et les algorithmes utilises permettent de résoudre en partie ce problème mal posé. L'ajout d'un apriori sur la régularité de l'élévation permet d'améliorer encore cette estimation dans les cas plus difficiles. Les images acquises en présence de micro-vibrations nécessitent de plus un reéchantillonnage auquel s'ajoute la déconvolution avec une problématique de coût numérique. L'algorithme que nous présentons ici répond a ces besoins grâce au cadre fonctionnel des splines que nous adaptons au problème de la déconvolution, avec des performances équivalentes a l'état de l'art et un coût numérique maîtrisé. Enfin nous abordons un problème inverse en interférométrie statique où la nature des signaux et de l'échantillonnage soulève de nombreuses questions, ce travail réalisé lors d'une R&T sur l'instrument SIFTI développé au CNES y apporte des réponses claires sous forme de résultats théoriques et numériques dans le cadre unifié des séries de Fourier non-harmoniques.
26

Etude de l’échantillonnage intégratif passif pour l’évaluation réglementaire de la qualité des milieux aquatiques : application à la contamination en pesticides et en éléments trace métalliques des bassins versants du Trec et de l’Auvézère / Evaluation of passive sampling for regulatory monitoring of aquatic environments : application for the contamination in pesticides and in elements track metallic of the ponds hillsides of Trec and of the Auvézère

Poulier, Gaelle 05 November 2014 (has links)
Parce qu’ils sont peu coûteux, faciles d’utilisation, et surtout très efficaces, les pesticides sont devenus une composante majeure de l’agriculture moderne et se sont imposés dans de nombreuses activités urbaines et domestiques. Ces molécules se retrouvent aujourd’hui dans tous les compartiments de l’environnement notamment dans les milieux aquatiques. Le suivi resserré des substances actives et de leurs résidus, présents dans l’environnement à des concentrations potentiellement dommageables pour les écosystèmes, apparaît aujourd’hui comme une nécessité. L’application de la Directive cadre sur l’eau, l’une des principales réglementations européenne ciblant les eaux, requiert des techniques d’échantillonnage et d’analyse performantes, alliant haute sensibilité, facilité de mise œuvre, coûts abordables, et surtout précision et fiabilité. Actuellement, la méthodologie employée consiste en des prélèvements ponctuels d’eau à pas de temps lâche (une fois par mois en général) suivi de l’analyse en laboratoire. Cette approche souffre d’un manque de représentativité temporelle, couplée à une sensibilité analytique souvent peu satisfaisante. Les techniques d’échantillonnage passif développées au cours des 20 dernières années pourraient être intégrées dans les réseaux de surveillance réglementaires afin de pallier ces manques, mais des questions subsistent encore quant à leur opérationnalité. Ces travaux de thèse visent à développer puis tester les échantillonneurs passifs sur le terrain afin de déterminer leur adéquation avec les exigences de la Directive cadre sur l’Eau, et le cas échéant, mettre en évidence les principaux verrous scientifiques résiduels. L’originalité de ce travail réside dans:- la variété des outils évalués : trois échantillonneurs différents ont été étudiés (Le Polar Organic Chemical Integrative Sampler (POCIS), le Chemcatcher et le Diffusive Gradient in Thin film (DGT). Les méthodes classiques de prélèvement ponctuels ont également été mise en œuvre.- la variété des environnements étudiés : deux bassins versant très différents ont été considérés, l’un présentant une contamination en pesticides forte, l’autre une contamination modérée.- La mise en en œuvre des échantillonneurs passifs dans un réel contexte réglementaire, les cours d’eau choisis faisant l’objet d’un contrôle opérationnel. Les données acquises avec les échantillonneurs passifs ont ainsi pu être comparées avec les suivis de l’Agence de l’Eau. / The intensive use of pesticides in agriculture and urban activities since the 1950s has led to diffuse contamination of environmental compartments (air, soil, water). The presence of these molecules can lead to toxic effects for biota. The implementation of the Water Framework Directive (WFD) requires the use of an efficient monitoring network, based on reliable sampling and analytical techniques. Nowadays, grab sampling followed by extraction of analytes and chromatographic analysis is the most widespread strategy because of its simplicity of implementation but it also has numerous drawbacks. The crux of the issue lies in the lack of temporal representativeness and the low analytical sensibility. An alternative strategy to overcome some of these problems could be the use of passive samplers. This contribution aims at discuss about the possible application of passive samplers in regulatory monitoring programs. The originality of this work lies in :The variety of tested devices: three different samplers was studied (The Polar Organic Chemical Integrative Sampler (POCIS), the Chemcatcher and the Diffusive Gradient in Thin Film (DGT). Conventional grab sampling strategies were also evaluated.The variety of studied environments: two very different watersheds were selected. The first one presented a high level of contamination; the second had a low contamination in pesticides.The implementation of passive samplers in a real regulatory context, as the selected streams were monitored by the Water Agency for operational control. Data from the Water Agency could therefore be compared with passive sampler data.
27

Proximal structured sparsity regularization for online reconstruction in high-resolution accelerated Magnetic Resonance imaging / Algorithmes de structures paricmonieuses pour la reconstruction en-ligne d'image haute résolution en IRM

El Gueddari, Loubna 13 December 2019 (has links)
L'imagerie par résonance magnétique (IRM) est la technique d'imagerie médicale de référence pour sonder in vivo et non invasivement les tissus mous du corps humain, en particulier le cerveau.L'amélioration de la résolution de l'IRM en un temps d'acquisition standard (400µm isotrope en 15 minutes) permettrait aux médecins d'améliorer considérablement leur diagnostic et le suivi des patients. Cependant, le temps d'acquisition en IRM reste long. Pour réduire ce temps, la récente théorie de l'échantillonnage comprimée (EC) a révolutionné la façon d'acquérir des données dans plusieurs domaines dont l'IRM en surmontant le théorème de Shannon-Nyquist. Avec l'EC, les données peuvent alors être massivement sous-échantillonnées tout en assurant des conditions optimales de reconstruction des images.Dans ce contexte, les thèses de doctorat précédemment soutenue au sein du laboratoire ont été consacrées à la conception et à la mise en oeuvre de scénarios d'acquisition physiquement plausibles pour accélérer l'acquisitions. Un nouvel algorithme d'optimisation pour la conception de trajectoire non cartésienne avancée appelée SPARKLING pour Spreading Projection Algorithm for Rapid K-space samplING en est né. Les trajectoires SPARKLING générées ont conduit à des facteurs d'accélération allant jusqu'à 20 en 2D et 70 pour les acquisitions 3D sur des images à haute résolution pondérées en T*₂ acquises à 7 Tesla. Ces accélérations n'étaient accessibles que grâce au rapport signal/bruit d'entrée élevé fourni par l'utilisation de bobines de réception multi-canaux (IRMp). Cependant, ces résultats ont été obtenus au détriment d'une reconstruction longue et complexe. Dans cette thèse, l'objectif est de proposer une nouvelle approche de reconstruction en ligne d'images acquies par IRMp non cartésiennes. Pour atteindre cet objectif, nous nous appuyons sur une approche en ligne où reconstruction et acquisition s'entremèlent. Par conséquent, la reconstruction débute avant la fin de l'acquisition et un résultat partiel est délivré au cours de l'examen. L'ensemble du pipeline est compatible avec une implémentation réelle à travers l'interface Gadgetron pour produire les images reconstruites à la console du scanner.Ainsi, après avoir exposé la théorie de l'échantillonage comprimé, nous présentons l'état de l'art de la méthode dédiée à la reconstruction en imagerie multi-canaux. En particulier, nous nous concentrerons d'abord sur les méthodes d'autocalibration qui présentent l'avantage d'être adaptées à l'échantillonnage non cartésien et nous proposons une méthode simple mais efficace pour estimer le profil de sensibilité des différents cannaux. Cependant, en raison de leur dépendance au profil de sensibilité, ces méthodes ne sont pas adapatable à la reconstruction en ligne. Par conséquent, la deuxième partie se concentre sur la suppression des ces profils et celà grâce à l'utilisation de norme mixte promouvant une parcimonie structurée. Ensuite, nous adaptons différentes réularization basées sur la parcimonie structurée pour reconstruire ces images fortement corrélées. Enfin, la méthode retenue sera appliquée à l'imagerie en ligne. / Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 400µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. However the scanning time in MRI remains long, especially in the high resolution context. To reduce this time, the recent Compressed Sensing (CS) theory has revolutionized the way of acquiring data in several fields including MRI by overcoming the Shannon-Nyquist theorem. Using CS, data can then be massively under-sampled while ensuring conditions for optimal image recovery.In this context, previous Ph.D. thesis in the laboratory were dedicated to the design and implementation of physically plausible acquisition scenarios to accelerate the scan. Those projects deliver new optimization algorithm for the design of advanced non-Cartesian trajectory called SPARKLING: Spreading Projection Algorithm for Rapid K-space samplING. The generated SPARKLING trajectories led to acceleration factors up to 20 in 2D and 60 for 3D-acquisitions on highly resolved T₂* weighted images acquired at 7~Tesla.Those accelerations were only accessible thanks to the high input Signal-to-Noise Ratio delivered by the usage of multi-channel reception coils. However, those results are coming at a price of long and complex reconstruction.In this thesis, the objective is to propose an online approach for non-Cartesian multi-channel MR image reconstruction. To achieve this goal we rely on an online approach where the reconstruction starts from incomplete data.Hence acquisition and reconstruction are interleaved, and partial feedback is given during the scan. After exposing the Compressed Sensing theory, we present state-of the art method dedicated to multi-channel coil reconstruction. In particular, we will first focus on self-calibrating methods that presents the advantage to be adapted to non-Cartesian sampling and we propose a simple yet efficient method to estimate the coil sensitivity profile.However, owing to its dependence to user-defined parameters, this two-step approach (extraction of sensitivity maps and then image reconstruction) is not compatible with the timing constraints associated with online reconstruction. Then we studied the case of calibration-less reconstruction methods and splits them into two categories, the k-space based and the domain-based. While the k-space calibration-less method are sub-optimal for non-Cartesian reconstruction, due to the gridding procedure, we will retain the domain-based calibration-less reconstruction and prove theirs for online purposes. Hence in the second part, we first prove the advantage of mixed norm to improve the recovery guarantee in the pMRI setting. Then we studied the impact of structured sparse induced norm on the reconstruction multi-channel purposes, where then and adapt different penalty based on structured sparsity to handle those highly correlated images. Finally, the retained method will be applied to online purposes. The entire pipeline, is compatible with an implementation through the Gadgetron pipeline to deliver the reconstruction at the scanner console.
28

Estimation spectrale parcimonieuse de signaux à échantillonnage irrégulier : application à l’analyse vibratoire d’aubes de turbomachines à partir de signaux tip-timing / Sparse spectral analysis of irregularly sampled signals : application to the vibrating analysis of turbomachine blades from tip-timing signals

Bouchain, Antoine 25 April 2019 (has links)
Dans le cadre de la certification de ses moteurs d'hélicoptères, Safran Helicopter Engines réalise des essais en fonctionnement lors desquels les réponses vibratoires de turbomachines (compresseurs et turbines) sont mesurées. Les réponses vibratoires contiennent des modes (ou raies spectrales) dont les fréquences et amplitudes doivent être caractérisées. Les mesures sont réalisées par la technologie tip-timing qui permet d'observer les vibrations de toutes les pales d'un aubage en rotation.Cependant, la technologie tip-timing présente deux spécificités importantes. Premièrement, l'échantillonnage des signaux de vibrations est irrégulier quasi-périodique. Deuxièmement, l'ordre de grandeur des fréquences de vibration est généralement supérieur à la fréquence d'échantillonnage équivalente. Ces deux caractéristiques donnent lieu à des artefacts des composantes fréquentielles sur les spectres des signaux de vibrations. Ceux-ci gênent alors fortement l'identification du contenu spectral et perturbent donc l'interprétation du comportement vibratoire des pales.La nouvelle méthode d'analyse spectrale proposée s'appuie sur une modélisation parcimonieuse des signaux tip-timing et prend en compte les variations de la fréquence de rotation. L'analyse spectrale des signaux est alors réalisée par la minimisation d'un critère des moindres carrés linéaires régularisé par une pénalisation de "norme-l0" par l'algorithme Block-OMP.À l'aide de résultats numériques sur signaux synthétiques, il est démontré que cette méthode fournit de bonnes performances d'estimations des composantes spectrales et réalise une réduction importante de leurs artefacts. La prise en compte des variations de la fréquence de rotation permet en effet de tirer profit de l'utilisation de longues durées d'observation afin de réduire significativement les artefacts des composantes fréquentielles contenus dans les spectres. Par ailleurs, avec des performances légèrement meilleures à celles de l'ESMV (méthode reconnue pour l'analyse spectrale des signaux tip-timing), la méthode proposée est environ cent fois plus rapide.Deux cas de données réelles sont étudiés. À travers une détection de crique de pale, le premier cas d'étude montre que la méthode proposée est pertinente et réalise des estimations comparables aux méthodes industrielles. Le second cas d'étude présente plusieurs vibrations synchrones et asynchrones simultanées. Cela met en avant la capacité de réduction des artefacts des composantes fréquentielles de la méthode développée afin de faciliter l'interprétation du contenu vibratoire complexe de ce signal.L'optimisation du placement des sondes tip-timing est également étudiée pour faciliter l'identification des composantes synchrones. À partir de résultats numériques, il est démontré qu'éloigner les capteurs améliore l'estimation des amplitudes ce type de composantes. / As part of the certification of its helicopter engines, Safran Helicopter Engines performs operational tests in which the vibrations responses of turbomachines (compressors and turbines) are measured. The vibratory responses contain modes (or spectral lines) whose frequencies and amplitudes must be characterized. The measurements are provided by the tip-timing technology which can observe the vibrations of all the blades while rotating.However, tip-timing technology has two important features. Firstly, the sampling of the vibrating signals is irregular quasi-periodic. Secondly, the vibrating frequencies are generally higher than the equivalent sampling frequency. These two characteristics generate frequency components artefacts onto the vibrating signals spectrum. As a consequence, they strongly hinder the identification of the spectral content and thus disturb the interpretation of the blades vibratory behaviour.The proposed new spectral analysis method relies on sparse modelling of the tip-timing signals and considers the variations of the rotational frequency. The spectral analysis of the signals is then performed by the minimization of a linear least squares criterion regularized by a penalty of "norm-l0" by the Block-OMP algorithm.Using numerical results from synthetic signals, it is shown that this method provides good spectral component estimation performances and achieves a significant reduction of their artefacts. Considering the variations of the rotational frequency allows to take advantage of the use of long observation periods in order to significantly reduce the frequency components artefacts contained in the spectrum. In addition, with slightly better performances than the ESMV (acknowledged method for the tip-timing signals spectral analysis), the proposed method is about a hundred times faster.Two cases of real data are studied. Through a detection of a blade crack, the first studied case shows that the proposed method is relevant and makes equivalent estimates with respect to industrial methods. The second studied case presents several simultaneous synchronous and asynchronous vibrations. That highlights the ability to reduce the frequency components artefacts of the developed method in order to simplify the interpretation of the complex vibratory content of this signal.The optimization of the positioning of the tip-timing probes is also studied in order to simplify the identification of synchronous components. From numerical results, it is demonstrated that moving away the probes improves the amplitudes estimation of this type of components.
29

Stratégies d'échantillonnage des dommages forestiers à l'échelle du paysage : application aux forêts cultivées de pin maritime (Pinus pinaster, Aït.)

Samalens, Jean-Charles 03 November 2009 (has links)
L’évaluation de la santé des écosystèmes forestiers nécessite la mise en place de stratégies de surveillance au sol applicables sur le long terme et selon un continuum d’échelles spatiales. Entre les réseaux de placettes permanentes élaborés de façon empirique à l'échelle européenne et les protocoles d’observation à portée très locale, peu de stratégies d’échantillonnage des dommages forestiers ont été validés à l'échelle du paysage (de quelques centaines à plusieurs milliers d’hectares), qui est pourtant celle de l'aménagement forestier. Pour optimiser les performances de l’échantillonnage des dommages forestiers trois critères ont été envisagés : les caractéristiques du paysage, la variabilité des estimations à différentes échelles spatiales et le coût des observations et des déplacements. Pour cela, deux paysages de forêt cultivée de pin maritime ont été suivi de façon intensive. L’usage de statistiques non-paramétriques (bootstrap, simulations géostatistiques) et des statistiques spatiales a été privilégié pour optimiser la répartition de l’effort d’observation au sein de plans d’échantillonnage emboîtés. Dans un premier temps, l’optimisation des réseaux systématiques d’observations actuels (Réseau Européen – ICP Forest level I, Inventaire Forestier National) à été envisagé dans le cadre d’une stratégie de suivi simultané de l’ensemble des dommages forestiers (biotiques ou abiotiques). Puis, des stratégies d’échantillonnage spécifiques ont été envisagées pour deux insectes ravageurs (la chenille processionnaire du pin Thaumetopoea pityocampa et le scolyte Ips sexdentatus) afin de prendre en compte de façon explicite la distribution spatiale de leurs dommages dans l’échantillonnage. Les résultats montrent qu’il est envisageable d’assoir un protocole d’inventaire des dommages forestiers sur les réseaux d’observations existant à l’échelle nationale à condition de porter la densité d’échantillonnage à environ 1 placette pour 700 ha. La configuration optimale des placettes réside alors dans l’observation de 25 arbres, sélectionnés sans discrimination de statut social et intégrant pour partie les arbres en lisières de peuplement (20%). Seules les populations de T. pityocampa ont montré une structure spatiale sur plusieurs dizaines de kilomètres. Un plan d’échantillonnage systématique, d’une maille carrée comprise entre 2 km et 3km, semble un bon compromis pour l’estimation et la cartographie des densités de population de cette chenille défoliatrice. En revanche, les réseaux systématiques d’observations s'avèrent inadaptés pour l’évaluation de dégâts de très faible intensité et/ou agrégés dans l’espace comme ceux des scolytes. Ainsi l’étude rétrospective de dégâts post-tempête 1999 de I. sexdentatus a montré l'intérêt d’une stratégie d’échantillonnage par cheminement adaptatif le long des pistes forestières. L’utilisation des lisières forestières en tant qu’«arbres sentinelles» apparaît prometteuse et ses applications pratiques sont proposées pour la surveillance sanitaire à l’échelle du paysage. / Forest ecosystem health assessment relies on long-term and multiple scales sampling strategies. Neither European networks of permanent plots developed empirically, nor local observation protocols can produce reliable estimates of forest damages over areas ranging from a few hundred to several thousands of hectares. Little attention has been paid to the development of robust sampling designs at the landscape scale, which is however the operational one for forest management. Three criteria were considered to optimize the performance of forest damage sampling: landscape features, variability estimates at different spatial scales and logistics costs of observations. Intensive monitoring was performed on two landscapes of maritime pine plantation forests. Nonparametric statistics (bootstrap, geostatistical simulations) and spatial statistics were used to optimize allocation of sampling effort within nested sampling designs. Firstly, the monitoring of all types of forest damage (biotic or abiotic) was investigated through the optimization of sampling schemes currently applied at the national scale (European Network - ICP forest level I and National Forest Inventory). Then, specific sampling strategies were developed for two insect pests (the defoliator Thaumetopoea pityocampa and the bark beetle Ips sexdentatus), taking into account the spatial distribution of their damage. Increasing the sampling density of national plot networks up to 1/700 ha would be necessary for forest damage survey at the landscape scale. The optimal configuration of inventory plots lies in the observation of about 25 trees, selected without discrimination of social status and partly integrating trees at stand edges (20%). At a large scale, only populations of T. pityocampa showed a spatial structure over several kilometers. A systematic sampling plan, with a square grid between 2 km and 3 km, seems to be a good compromise for estimation and mapping of its nest density. However, systematic plot networks are inadequate for assessing rare and spatially clustered phenomenon such as damage caused by bark beetles damages. A retrospective post-storm 1999 survey of I.sexdentatus damages emphasizes the effectiveness of an adaptive roadside sampling method to monitor this type of damage. The use of forest edges as "sentinel trees" seems promising and its practical applications are proposed for forest health monitoring at the landscape scale.
30

Optimisation des méthodes algorithmiques en inférence bayésienne. Modélisation dynamique de la transmission d'une infection au sein d'une population hétérogène / Optimization of algorithmic methods for Bayesian inference. Dynamic modeling of infectious disease transmission in heterogeneous population

Gajda, Dorota 13 October 2011 (has links)
Ce travail se décompose en deux grandes parties, "Estimations répétées dans le cadre de la modélisation bayésienne" et "Modélisation de la transmission de maladies infectieuses dans une population. Estimation des paramètres.". Les techniques développées dans la première partie sont utilisées en fin de la seconde partie. La première partie est consacrée à des optimisations d'algorithmes stochastiques très souvent utilisés, notamment dans le contexte des modélisations Bayésiennes. Cette optimisation est particulièrement faite lors de l'étude empirique d'estimateurs des paramètres d'un modèle où les qualités des estimateurs sont évaluées sur un grand nombre de jeux de données simulées. Quand les lois a posteriori ne sont pas explicites, le recours à des algorithmes stochastiques itératifs (de la famille des algorithmes dits de Monte Carlo par Chaîne de Makov) pour approcher les lois a posteriori est alors très couteux en temps car doit être fait pour chaque jeu de données. Dans ce contexte, ce travail consiste en l'étude de solutions évitant un trop grand nombre d'appels à ces algorithmes mais permettant bien-sûr d'obtenir malgré tout des résultats précis. La principale technique étudiée dans cette partie est celle de l'échantillonnage préférentiel. La seconde partie est consacrée aux études de modèles épidémiques, en particulier le modèle compartimental dit SIS (Susceptible-Infecté-Susceptible) dans sa version stochastique. L'approche stochastique permet de prendre en compte l'hétérogénéité de l'évolution de la maladie dans la population. les approches par des processus Markoviens sont étudiés où la forme des probabilités de passage entre les états est non linéaire. La solution de l'équation différentielle en probabilité n'est alors en général pas explicite. Les principales techniques utilisées dans cette partie sont celles dites de développement de l'équation maîtresse ("master equation") appliquées au modèle SIS avec une taille de population constante. Les propriétés des estimateurs des paramètres sont étudiées dans le cadre fréquentiste et bayésien. Concernant l'approche Bayésienne, les solutions d'optimisation algorithmique de la première partie sont appliquées. / This work consists in two parts, "Repeated estimates in bayesian modelling " and " Modelling of the transmission of infectious diseases in a population. Estimation of the parameters". Techniques developed in the first part are used at the end of the second part.The first part deals with optimizations of very often used stochastic algorithms, in particular in the context of Bayesian modelling. This optimization is particularly made when empirical study of estimates based on numerous simulated data sets is done. When posterior distribution of parameters are not explicit, its approximation is obtained via iterative stochastic algorithms (of the family of Markov Chain Monte Carlo) which is computationally expensive because has to be done on each data set. In this context, solutions are proposed avoiding an excess large number of MCMC calls but nevertheless giving accurate results. The Importance Sampling method is used in combination with MCMC in Bayesian simulation study. The second part deals with epidemic models, in particular the compartimental model SIS (Susceptible-Infectious-Susceptible) in its stochastic version. The stochastic approach allows to take into account the heterogeneousness of disease evolution in the population. Markov Process is particularly studied where transition probability between states is not linear, the solution of the differential equation in probability being then generally not explicit. The main techniques used in this part are the ones based on Master equation applied on SIS model with a constant population size. Empirical properties of parameters estimates are studied in frequentist and Bayesian context with algorithmic optimization presented in the first part.

Page generated in 0.0728 seconds