• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 9
  • 7
  • Tagged with
  • 80
  • 35
  • 17
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Investigation of speech processing in frequency regions where absolute thresholds are normal for hearing-impaired listeners / Etude du traitement de la parole dans des régions fréquentielles au sein desquelles les seuils absolus sont normaux pour des auditeurs malentendants

Léger, Agnès 30 November 2012 (has links)
Une perte auditive neurosensorielle est généralement associée à uneréduction de l’intelligibilité de la parole, et ce tout particulièrement dans le bruit.Les contributions respectives d’une réduction de l'audibilité et de déficitssupraliminaires sont encore débattues.L'objectif principal de cette thèse était d'évaluer l'effet spécifique desdéficits supraliminaires sur l’intelligibilité de la parole. L'effet de l'audibilité étaitcontrôlé en mesurant l’intelligibilité de signaux de parole sans signification filtrésdans les régions basses et moyennes fréquences au sein desquelles la détection desons purs était normale chez des auditeurs malentendants présentant par ailleursune perte auditive en hautes fréquences. Dans ces régions fréquentielles oùl’audibilité est supposée normale, des déficits d'intelligibilité de la parole légers àsévères ont été observés dans le silence comme dans le bruit chez les auditeursmalentendants. Les déficits étaient similaires dans les bruits masquantstationnaires et fluctuants. Ces résultats démontrent l’influence des déficitsauditifs supraliminaires sur l’intelligibilité de la parole.Le second objectif de cette thèse était d'étudier l'origine de ces déficitssupraliminaires. Les résultats indiquent qu’une réduction de la sélectivitéfréquentielle cochléaire ne peut pas expliquer entièrement les déficitsd’intelligibilité de la parole des auditeurs malentendants. L'influence de lasensibilité à la structure temporelle fine reste incertaine / Speech intelligibility is reduced for listeners with sensorineural hearingloss, especially for speech in noise. The extent to which this reduction is due toreduced audibility or to supra-threshold deficits is still debated.The main goal of this PhD work was to investigate the specific influenceof supra-threshold deficits on speech intelligibility. The effect of audibility wascontrolled for by measuring speech intelligibility for hearing-impaired listenersusing nonsense speech signals filtered in low- and mid-frequency regions wherepure-tone sensitivity was normal. Hearing-impaired listeners with hearing loss inhigh-frequency regions showed mild to severe intelligibility deficits for speechboth in quiet and in noise in these frequency regions of normal audibility. Similardeficits were obtained for speech in steady and fluctuating masking noises. Thisprovides additional evidence that speech intelligibility may be strongly influencedby supra-threshold auditory deficits.The second aim of this PhD work was to investigate the origin of thesesupra-threshold deficits. Results showed that reduced frequency selectivity cannotentirely explain the speech intelligibility deficits of the hearing-impaired listeners.The influence of temporal fine structure sensitivity remained unclear
42

Développement d'une nouvelle algorithmie de localisation adaptée à l'ensemble des mobiles suivis par le système ARGOS / Improving ARGOS Doppler location using multiple-model filtering and smoothing

Lopez, Remy 15 July 2013 (has links)
Depuis 1978, le système ARGOS assure à l’échelle mondiale la collecte de données et la localisation de plateformes pour des applications liées au suivi d’animaux, à l’océanographie et à la sécurité maritime. La localisation exploite le décalage Doppler affectant la fréquence de porteuse des messages émis par les plateformes et réceptionnés par des satellites dédiés. Au cours des vingt dernières années, les puissances d’émission des plateformes se sont réduites pour des conditions d’utilisation toujours plus extrêmes, augmentant le nombre de localisations de moindre qualité. Paradoxalement, les utilisateurs ont cherché à identifier des comportements à des échelles de plus en plus petites. L’objectif de ce projet est de développer un algorithme de localisation plus performant dans le contexte actuel afin de remplacer le traitement temps réel historique basé sur un ajustement par moindres carrés. Un service hors ligne, permettant de déterminer des localisations encore plus précises, est proposé dans un second temps.Le problème est reformulé comme l’estimation de l’état d’un système dynamique stochastique, tenant compte d’un ensemble de modèles de déplacement admissibles pour les plateformes. La détermination exacte de la loi a posteriori de l’état présente alors une complexité exponentiellement croissante avec le temps. Le filtre « Interacting Multiple Model » (IMM) est devenu l’outil standard pour approximer en temps réel la loi a posteriori avec un coût de calcul constant. Pour des applications hors ligne, de nombreuses solutions sous-optimales de lissage multi-modèle ont aussi été proposées. La première contribution méthodologique de ce travail présente l’extension du cadre initial de l’IMM à un ensemble de modèles hétérogènes, c.-à-d. dont les vecteurs d’état sont de tailles et de sémantiques différentes. En outre, nous proposons une nouvelle méthode pour le lissage multi-modèle qui offre une complexité réduite et de meilleures performances que les solutions existantes. L’algorithme de localisation ARGOS a été réécrit en y incorporant le filtre IMM en tant que traitement temps réel et le lisseur multi-modèle comme service hors ligne. Une étude, menée sur un panel de 200 plateformes munies d’un récepteur GPS utilisé comme vérité terrain, montre que ces stratégies améliorent significativement la précision de localisation quand peu de messages sont reçus. En outre, elles délivrent en moyenne 30% de localisations supplémentaires et permettent de caractériser systématiquement l’erreur de positionnement / The ARGOS service was launched in 1978 to serve environmental applications including oceanography, wildlife tracking and maritime safety. The system allows for worldwide positioning and data collection of Platform Terminal Transmitters (PTTs). The positioning is achieved by exploiting the Doppler shift in the carrier frequency of the messages transmitted by the PTTs and recorded by dedicated satellite-borne receivers. Over the last twenty years, the transmission power has decreased significantly and platforms have been used in increasingly harsh environments. This led to deliver a greater number of low quality locations while users sought to identify finer platform behavior. This work first focuses on the implementation of a more efficient location processing to replace the historical real time processing relying on a Least Squares adjustment. Secondly, an offline service to infer locations with even higher accuracy is proposed.The location problem is formulated as the estimation of the state vector of a dynamical system, accounting for a set of admissible movement models of the platform. The exact determination of the state posterior pdf displays a complexity growing exponentially with time. The Interacting Multiple Model (IMM) algorithm has become a standard online approach to derive an approximated solution with a constant computational complexity. For offline applications, many sub-optimal multiple model schemes have also been proposed. Our methodological contributions first focused on extending the framework of the IMM filter so as to handle a bank of models with state vectors of heterogeneous size and meaning. Second, we investigated a new sub-optimal solution for multiple model smoothing which proves to be less computationally expensive and displays markedly better performance than equivalent algorithms. The ARGOS location processing was rewritten to include the IMM filter as real time processing and the IMM smoother as offline service. We eventually analyzed their performances using a large dataset obtained from over 200 mobiles carrying both an ARGOS transmitter and a GPS receiver used as ground truth. The results show that the new approaches significantly improve the positioning accuracy, especially when few messages are received. Moreover, the algorithms deliver 30% more positions and give a systematic estimation of the location error
43

Méthodes de contrôle de la qualité de solutions éléments finis: applications à l'acoustique

Bouillard, Philippe 05 December 1997 (has links)
This work is dedicated to the control of the accuracy of computational simulations of sound propagation and scattering. Assuming time-harmonic behaviour, the mathematical models are given as boundary value problems for the Helmholtz equation <i>Delta u+k2u=0 </i> in <i>Oméga</i>. A distinction is made between interior, exterior and coupled problems and this work focuses mainly on interior uncoupled problems for which the Helmholtz equation becomes singular at eigenfrequencies. <p><p>As in other application fields, error control is an important issue in acoustic computations. It is clear that the numerical parameters (mesh size h and degree of approximation p) must be adapted to the physical parameter k. The well known ‘rule of the thumb’ for the h version with linear elements is to resolve the wavelength <i>lambda=2 pi k-1</i> by six elements characterising the approximability of the finite element mesh. If the numerical model is stable, the quality of the numerical solution is entirely controlled by the approximability of the finite element mesh. The situation is quite different in the presence of singularities. In that case, <i>stability</i> (or the lack thereof) is equally (sometimes more) important. In our application, the solutions are ‘rough’, i.e. highly oscillatory if the wavenumber is large. This is a singularity inherent to the differential operator rather than to the domain or the boundary conditions. This effect is called the <i>k-singularity</i>. Similarly, the discrete operator (“stiffness” matrix) becomes singular at eigenvalues of the discretised interior problem (or nearly singular at damped eigenvalues in solid-fluid interaction). This type of singularities is called the <i>lambda-singularities</i>. Both singularities are of global character. Without adaptive correction, their destabilizing effect generally leads to large error of the finite element results, even if the finite element mesh satisfies the ‘rule of the thumb’. <p><p>The k- and lambda-singularities are first extensively demonstrated by numerical examples. Then, two <i>a posteriori</i> error estimators are developed and the numerical tests show that, due to these specific phenomena of dynamo-acoustic computations, <i>error control cannot, in general, be accomplished by just ‘transplanting’ methods that worked well in static computations</i>. However, for low wavenumbers, it is necessary to also control the influence of the geometric (reentrants corners) or physical (discontinuities of the boundary conditions) singularities. An <i>h</i>-adaptive version with refinements has been implemented. These tools have been applied to two industrial examples :the GLT, a bi-mode bus from Bombardier Eurorail, and the Vertigo, a sport car from Gillet Automobiles.<p><p>As a conclusion, it is recommanded to replace the rule of the thumb by a criterion based on the control of the influence of the specific singularities of the Helmholtz operator. As this aim cannot be achieved by the <i>a posteriori</i> error estimators, it is suggested to minimize the influence of the singularities by modifying the formulation of the finite element method or by formulating a “meshless” method.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
44

Les inégalités sociales dans la durée de vie la plus commune : la répartition des décès selon l'âge et le quintile de défavorisation au Québec en 2000-2002 et 2005-2007

Lecours, Chantale 10 1900 (has links)
Nous avons choisi de focaliser nos analyses sur les inégalités sociales de mortalité spécifiquement aux grands âges. Pour ce faire, l'utilisation de l'âge modal au décès combiné à la dispersion des décès au-delà de cet âge s'avère particulièrement adapté pour capter ces disparités puisque ces mesures ne sont pas tributaires de la mortalité prématurée. Ainsi, à partir de la distribution des âges au décès selon le niveau de défavorisation, au Québec au cours des périodes 2000-2002 et 2005-2007, nous avons déterminé l'âge le plus commun au décès et la dispersion des durées de vie au-delà de celui-ci. L'estimation de la distribution des décès selon l'âge et le niveau de défavorisation repose sur une approche non paramétrique de lissage par P-splines développée par Nadine Ouellette dans le cadre de sa thèse de doctorat. Nos résultats montrent que l'âge modal au décès ne permet pas de détecter des disparités dans la mortalité des femmes selon le niveau de défavorisation au Québec en 2000-2002 et en 2005-2007. Néanmoins, on assiste à un report de la mortalité vers des âges plus avancés alors que la compression de la mortalité semble s'être stabilisée. Pour les hommes, les inégalités sociales de mortalité sont particulièrement importantes entre le sous-groupe le plus favorisé et celui l'étant le moins. On constate un déplacement de la durée de vie la plus commune des hommes vers des âges plus élevés et ce, peu importe le niveau de défavorisation. Cependant, contrairement à leurs homologues féminins, le phénomène de compression de la mortalité semble toujours s'opérer. / "Social inequalities in the most common age at death : the distribution of deaths by age and deprivation quintile in Quebec in 2000-2002 and 2005-2007" We chose to focus our analysis on the social inequalities of mortality at older ages especially. The use of the modal age at death, combined with the dispersion of deaths above this age is particularly adapted to capture such disparities. Indeed, these measures are not dependent on premature mortality. From the distribution of ages at death by level of deprivation in Quebec during the periods of 2000-2002 and 2005-2007, we determined the most common age at death and the dispersion of deaths above it. We first estimated the distribution of deaths by age and level of deprivation with a nonparametric smoothing approach based on P-splines developed by Nadine Ouellette in her doctoral thesis. Our results show that the modal age at death does not allow to detect disparities in mortality among women by level of deprivation in Quebec in 2000-2002 and in 2005-2007. Nevertheless, mortality shifted to older ages, while the compression of mortality seems to have stabilized. For men, social inequalities in mortality are particularly important between the most and least favored subgroups. There is a shift in male modal age at death towards older ages, regardless of the level of deprivation. However, unlike their female counterparts, the phenomenon of compression of mortality still seems ongoing.
45

Développement d'un capteur de déplacement à fibre optique appliqué à l'inclinométrie et à la sismologie / Development of an optical fibers displacement sensor for applications in tiltmetry and seismology

Chawah, Patrick 30 November 2012 (has links)
Le suivi de la déformation de la croûte terrestre durant la phase intersismique pour la recherche des transitoires nécessite des instruments précis capables d'opérer pour de très longues durées. Le projet ANR-LINES a visé le développement de trois nouveaux instruments : un sismomètre mono-axial, un inclinomètre hydrostatique à longue base et un inclinomètre de forage pendulaire. Ces trois instruments profitent d'un capteur interférométrique de déplacement à longues fibres optiques du type Fabry-Pérot Extrinsèque (EFFPI). Leurs architectures mécaniques et l'utilisation de longues fibres permettent à ces instruments géophysiques nouvellement fabriqués d'atteindre les objectifs fixés.Le premier objectif de cette étude est de proposer des méthodes adaptées à l'estimation de la phase du chemin optique dans les cavités Fabry-Pérot. Une modulation du courant de la diode laser, suivie par une démodulation homodyne du signal d'interférence et un filtre de Kalman permettent de déterminer la phase en temps réel. Les résultats sont convaincants pour des mesures de courtes durées mais exigent des solutions complémentaires pour se prémunir des effets de la variation des phénomènes environnementaux.Le capteur EFFPI intégré dans l'inclinomètre de forage LINES lui offre l'opportunité d'établir une mesure différentielle de l'oscillation de la masselotte pendulée grâce à trois cavités Fabry-Pérot. Le sismomètre LINES utilise lui aussi le capteur de déplacement EFFPI pour la mesure du déplacement de sa bobine. Une description de l'architecture mécanique de ces instruments et une analyse des phénomènes détectés (mouvements lents, marées, séismes, microséismes . . . ) font partie de cette thèse. / Monitoring crustal deformation during the interseismic phase when searching for earth transients requires precise instruments able to operate for very long periods. The ANR-LINES project aimed to develop three new instruments: a single-axis seismometer, a hydrostatic long base tiltmeter and a borehole pendulum tiltmeter. These three instruments benefit of an extrinsic Fabry-Pérot interferometer (EFFPI) with long optic fibers for displacement detections. Their mechanical architectures and their disposal of long fibers help these newly manufactured geophysical instruments complete their goals.The first objective of this study is to propose appropriate methods for estimating the phase of the optical path in the Fabry-Pérot cavities. A modulation of the laser diode current, followed by a homodyne demodulation of the interference signal and a Kalman filter, allow determining the phase in real time. The results are convincing while taking short periods measurements but require additional solutions for protection against environmental phenomena variations. The EFFPI sensor integrated in the LINES borehole tiltmeter gives it the opportunity to establish a differential measurement of the bob's oscillation thanks to three Fabry-Perot cavities. The LINES seismometer also uses the EFFPI displacement sensor to measure its coil's displacement. A description of the two instruments' mechanical structures and an analysis of the detected phenomena (slow movements, tides, earthquakes, microseisms . . . ) are part of this thesis.Keywords: Laser interferometry, wavelength modulation, synchronous homodyne demodulation, ellipse fitting, Kalman filter, temperature compensation, borehole tiltmeter, simple pendulum, differential measurements, slow drift, seismicobservations, seismometer.
46

Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar / Verification of end-to-end real-time constraints in the context of AutoSar

Monot, Aurélien 26 October 2012 (has links)
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérification des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous décrivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibilités d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous présentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents paramètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentalement les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches / The complexity of electronic embedded systems in cars is continuously growing. Hence, mastering the temporal behavior of such systems is paramount in order to ensure the safety and comfort of the passengers. As a consequence, the verification of end-to-end real-time constraints is a major challenge during the design phase of a car. The AUTOSAR software architecture drives us to address the verification of end-to-end real-time constraints as two independent scheduling problems respectively for electronic control units and communication buses. First, we introduce an approach, which optimizes the utilization of controllers scheduling numerous software components that is compatible with the upcoming multicore architectures. We describe fast and efficient algorithms in order to balance the periodic load over time on multicore controllers by adapting and improving an existing approach used for the CAN networks. We provide theoretical result on the efficiency of the algorithms in some specific cases. Moreover, we describe how to use these algorithms in conjunction with other tasks scheduled on the controller. The remaining part of this research work addresses the problem of obtaining the response time distributions of the messages sent on a CAN network. First, we present a simulation approach based on the modelisation of clock drifts on the communicating nodes connected on the CAN network. We show that we obtain similar results with a single simulation using our approach in comparison with the legacy approach consisting in numerous short simulation runs without clock drifts. Then, we present an analytical approach in order to compute the response time distributions of the CAN frames. We introduce several approximation parameters to cope with the very high computational complexity of this approach while limiting the loss of accuracy. Finally, we compare experimentally the simulation and analytical approaches in order to discuss the relative advantages of each of the two approaches
47

Choix optimal du paramètre de lissage dans l'estimation non paramétrique de la fonction de densité pour des processus stationnaires à temps continu / Optimal choice of smoothing parameter in non parametric density estimation for continuous time stationary processes

El Heda, Khadijetou 25 October 2018 (has links)
Les travaux de cette thèse portent sur le choix du paramètre de lissage dans le problème de l'estimation non paramétrique de la fonction de densité associée à des processus stationnaires ergodiques à temps continus. La précision de cette estimation dépend du choix de ce paramètre. La motivation essentielle est de construire une procédure de sélection automatique de la fenêtre et d'établir des propriétés asymptotiques de cette dernière en considérant un cadre de dépendance des données assez général qui puisse être facilement utilisé en pratique. Cette contribution se compose de trois parties. La première partie est consacrée à l'état de l'art relatif à la problématique qui situe bien notre contribution dans la littérature. Dans la deuxième partie, nous construisons une méthode de sélection automatique du paramètre de lissage liée à l'estimation de la densité par la méthode du noyau. Ce choix issu de la méthode de la validation croisée est asymptotiquement optimal. Dans la troisième partie, nous établissons des propriétés asymptotiques, de la fenêtre issue de la méthode de la validation croisée, données par des résultats de convergence presque sûre. / The work this thesis focuses on the choice of the smoothing parameter in the context of non-parametric estimation of the density function for stationary ergodic continuous time processes. The accuracy of the estimation depends greatly on the choice of this parameter. The main goal of this work is to build an automatic window selection procedure and establish asymptotic properties while considering a general dependency framework that can be easily used in practice. The manuscript is divided into three parts. The first part reviews the literature on the subject, set the state of the art and discusses our contribution in within. In the second part, we design an automatical method for selecting the smoothing parameter when the density is estimated by the Kernel method. This choice stemming from the cross-validation method is asymptotically optimal. In the third part, we establish an asymptotic properties pertaining to consistency with rate for the resulting estimate of the window-width.
48

Étude des propriétés statistiques d'une tache focale laser lissée et de leur influence sur la rétrodiffusion brillouin stimulée / Studies of the statistical properties of a smoothed laser focal spot and their influence on stimulated Brillouin backscattering

Duluc, Maxime 15 July 2019 (has links)
Dans le contexte de la fusion par confinement inertiel (FCI), le lissage optique est une technique utilisée pour obtenir une irradiation laser aussi homogène que possible, en modifiant les propriétés de cohérence temporelle et spatiale des faisceaux laser. L'utilisation du lissage optique est une nécessité sur les lasers de puissance comme le Laser MégaJoule (LMJ) pour limiter le développement des instabilités paramétriques issues de l'intéraction laser-plasma, et parmi elles, la rétrodiffusion Brillouin stimulée (RBS). Ces instabilités entraînent des défauts d'irradiation sur cible et peuvent aussi être une source d'endommagement dans la chaîne optique. Cependant ces techniques peuvent entraîner d'autres problèmes au niveau de la chaîne laser, tels que la conversion de modulation de phase en modulation d'amplitude (FM-AM), néfastes au bon déroulement des expériences et pouvant également endommager les chaînes laser.On comprend donc qu'il est nécessaire de trouver un compromis autour du lissage optique. L’évolution du compromis du lissage est cependant compliquée car la quantification des gains et des pertes est très difficile à établir. Ainsi, tant que la quantification n’est pas faite, le compromis n’évolue pas : le lasériste souhaite toujours moins de lissage et « l’expérimentateur » toujours plus de lissage mais aucun des deux ne peut apporter suffisamment d’éléments quantitatifs pour faire pencher la balance. Cette thèse propose donc de poser les premières briques permettant d'arriver à ce compromis pour le LMJ, à l'aide d'études théoriques et numériques.Nous comparons soigneusement le lissage longitudinal (LSSD) et transversal (TSSD) par dispersion spectrale dans une configuration de lissage idéale pour chaque cas. Avec des codes 3D, nous avons simulé la RBS dans un plasma d'or, typique des expériences de FCI et favorable au développement de la RBS. Nous montrons que, contrairement aux idées reçues, l'évolution temporelle de la RBS présente certaines différences entre les deux systèmes de lissage. Premièrement, les valeurs asymptotiques des niveaux de saturation ne sont pas tout à fait les mêmes. Avec une simple description des rayons et le calcul du gain RBS pour chaque rayon, nous avons pu expliquer cette différence. En outre, la dynamique de la RBS est également quelque peu différente. Nous avons montré que la dynamique RBS est déterminée par l'évolution temporelle des propriétés des surintensités et en particulier par la longueur d'interaction effective entre la lumière rétrodiffusée Brillouin et les points chauds. Cette longueur d'interaction effective dépend à la fois de la vitesse longitudinale et de la longueur des points chauds. En effet, la synchronisation des longueurs d'interaction effectives des deux schémas de lissage synchronise également la croissance des courbes de rétrodiffusion avant saturation.Nous montrons, également qu'il est possible de faire évoluer les paramètres de lissage du LMJ en illustrant une nouvelle façon de réduire la conversion FM-AM inévitablement présente dans les lasers de forte puissance. En répartissant le spectre total habituellement utilisé par un quadruplet (regroupement de 4 faisceaux), en deux parties de spectres identiques plus petits sur les faisceaux de gauche et de droite, la conversion FM en AM est considérablement réduite de 30% à 5% tout en maintenant la performance de lissage pour la RBS. Nous avons également montré que le temps de cohérence qui en résulte n'a aucun effet sur le niveau maximal de RBS atteint. De la même façon, il faudra étudier l'impact de ces évolutions sur d'autres instabilités telles que le diffusion Raman stimulée ou le transfert d'énergie par croisement de faisceaux. / In the context of inertial confinement fusion (ICF), optical smoothing is a technique used to obtain the most homogeneous laser irradiation possible, by modifying the temporal and spatial coherence properties of the laser beams. The use of optical smoothing is a necessity on high-power lasers such as the Laser Mégajoule (LMJ) to limit the development of parametric instabilities resulting from laser-plasma interaction, and among them, stimulated Brillouin backscattering (SBS). These instabilities lead to target irradiation defects and can also be a source of damage in the optical lines. However, these techniques can lead to other problems in the laser lines, such as the conversion of phase modulation to amplitude modulation (FM-to-AM), which is harmful to the proper conduct of the experiments and can also damage the laser optics.It is therefore a necessity to find a compromise around optical smoothing. The evolution of the smoothing compromise is however complicated because the quantification of gains and losses is very difficult to establish. Thus, as long as quantification is not done, the compromise does not evolve: the laserist always wants less smoothing and the experimentalist always more smoothing, but neither of them can bring enough quantitative elements to tip the balance. This thesis therefore proposes to lay the first groundwork for reaching this compromise for the LMJ, using theoretical and numerical studies.We carefully compare longitudinal (LSSD) and transverse (TSSD) smoothing by spectral dispersion in an ideal smoothing configuration for each case. With 3D codes, we simulated SBS in a gold plasma, typical of ICF experiments and favourable to the development of SBS. We show that, contrary to popular belief, the temporal evolution of SBS shows some differences between the two smoothing schemes. First, the asymptotic values of saturation levels are not quite the same. With a simple description using light rays and the calculation of the SBS gain for each ray, we were able to explain this difference. In addition, the dynamics of SBS are also somewhat different. We have shown that the SBS dynamics is determined by the temporal evolution of the properties of the hot-spots and in particular by the effective interaction length between the Brillouin backscattered light and the hot-spots. This effective interaction length depends on both the longitudinal velocity and the length of the hot-spots. Indeed, the synchronization of the effective interaction lengths of the two smoothing schemes also synchronizes the growth of the backscatter curves before saturation.We also show that it is possible to change the smoothing parameters of the LMJ by illustrating a new way to reduce the FM-to-AM conversion inevitably present in high-power lasers. By splitting the total spectrum usually used by a quadruplet (grouping of 4 beams) into two parts of smaller identical spectra on the left and right beams, the FM-to-AM conversion is significantly reduced from 30% to 5% while maintaining the smoothing performance for SBS. We have also shown that the resulting coherence time of the laser has no effect on the maximum level of SBS achieved. Similarly, the impact of these developments on other instabilities such as stimulated Raman scattering or crossed beam energy transfer will also need to be investigated.
49

Modélisation géométrique de surfaces lisses: Design et Fairing

Hahmann, Stefanie 21 December 2001 (has links) (PDF)
Les travaux présentés dans ce mémoire d'habilitation portent sur deux aspects <br />de la modélisation géométrique de surfaces lisses. <br /><br />L'ambition des recherches menées sur le thème de l'interpolation de triangulations <br />polygonales quelconques par des surfaces polynomiales a été de revenir à la source du <br />problème en introduisant un autre découpage, régulier en quatre cette fois ci, des <br />triangles données en entrée. Nous présentons de nouvelles approches en insistant sur <br />la résolution du problème de raccordement lisse de patchs triangulaires en un sommet <br />commun ainsi que sur le choix optimal des paramètres de forme permettant de contrôler <br />la qualité esthétique de la surface. De plus, l'invariance par subdivision d'un des <br />schémas permet une hiérarchisation des procédés d'interpolation. Il devient alors<br />possible d'avoir un modèle de surface multirésolution paramétrique, et permettant <br />de décrire de topologies quelconques, applicable dans des domaines aussi divers que <br />la CAO, la réalité virtuelle ou la médecine.<br /><br />Le deuxième thème concerne le lissage de surfaces B-splines. Deux types de méthodes, <br />basées sur la diminution de la variation de courbures, sont présentés. Les premières <br />utilisent des stratégies de recherche heuristiques ou systématiques. Les secondes <br />reposent sur la convolution du réseau des points de contrôle de la surface par des <br />filtres discrets.
50

Méthodes d'Extraction de Connaissances à partir de Données (ECD) appliquées aux Systèmes d'Information Géographiques (SIG)

Candillier, Christophe 21 September 2006 (has links) (PDF)
Le travail effectué durant cette thèse concerne l'étude des méthodes d'Extraction de Connaissances à partir de Données (ECD) dans le cadre des Systèmes d'Information Géographiques (SIG). Nous avons non seulement mis en œuvre et amélioré des méthodes d'ECD classique (Classification de Données, Visualisation de Classifications) mais aussi des méthodes d'ECD spatiales liées à des méthodes d'analyse spatiale (Lissage Spatial, Détermination de Pôles, Sectorisation). Nous avons effectué notre travail de recherche au sein de la société GÉOBS spécialisée dans l'analyse des données géographiques (spatiales), et nous avons donc expérimenté, appliqué et vérifié ces méthodes sur des jeux de données fournis par GÉOBS et liés à des problématiques de Développement Économique, de Géomarketing, d'Analyse de Risque, d'Environnement, de Santé, etc. Ce mémoire offre une vision globale concernant un ensemble de problématiques et de méthodes d'analyse. Il met ainsi en avant la complémentarité des méthodes utilisées qui sont souvent connectées entre elles soit du point de vue technique soit du point de vue de leur utilisation. Finalement, ce fut un travail très enrichissant car il a touché à de nombreuses problématiques et à d'aussi nombreuses méthodes d'extraction de connaissances.

Page generated in 0.0378 seconds