• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 150
  • 60
  • 7
  • 1
  • Tagged with
  • 221
  • 110
  • 85
  • 65
  • 50
  • 49
  • 29
  • 29
  • 28
  • 28
  • 26
  • 24
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Les lésions osseuses tranchantes (par scies) et tranchantes contondantes : analyse des mécanismes lésionnels et des instruments à l'origine de ces lésions / Sharp bone lesions (saws) and sharp-blunt bone lesions : analysis of the lesional mechanisms and instruments at the origin of these lesions

Torres Nogueira, Luisa Maria 10 July 2018 (has links)
Ce travail expérimental s’est intéressé aux lésions osseuses produites par des scies et par une hachette, sur des échantillons humains et animaux. En ce qui concerne les scies, 170 faux départs ont été étudiés au stéréomicroscope en utilisant cinq scies différentes. Les scies universelles se comportent comme les scies à tronçonner, du fait de l’inclinaison vers l’arrière de chaque dent. La largeur minimum du faux départ permet de classer les lésions selon les catégories de Symes. Les profils convexes indiquent l’utilisation d’une scie universelle ou d’une scie à tronçonner. Les profils concaves sont beaucoup plus variés, et indiquent l’utilisation d’une scie à refendre. La forme des murs permet de déterminer le type d’avoyage sauf quand ils sont droits ou difficiles à analyser. Parmi les critères secondaires, l’aspect des stries au fond de la lésion s’est révélé de grande importance pour identifier le type d’avoyage. En ce qui concerne la hachette, nous avons utilisé un protocole standardisé produisant des lésions osseuses de petites dimensions. Le stéréomicroscope a constaté le caractère vertical des stries, qui s’explique par le mouvement vertical effectué par l’instrument au moment de l’impact. Le microscope électronique à balayage a permis de décrire parfaitement les lésions, de comprendre la surélévation des berges (« uprising ») et l’effet exercé à distance (« lateral pushing back »). La présence du latéral pushing back et de stries verticales permet d’affirmer que les lésions osseuses ont été produites par un instrument tranchant contondant. Ces caractères se pérennisent même après carbonisation. / In this experimental work bone lesions produced by saws and a hatchet on human and animal samples were analyzed. With regard to the saws, 170 experimental false starts lesions were studied under stereomicroscope produced by five different saws. Universal saws behave like crosscut saws, because each tooth displays a tilt backwards. The minimum width of the kerf makes it possible to classify bone lesions according to Symes’ categories. Convex profiles indicate the use of a universal or crosscut saw. Concave profiles vary a great deal and indicate the use of a rip saw. The shape of the walls allows for determining the type of set except when they are straight or difficult to analyze. Among the secondary criteria, the appearance of the striae on the kerf floor is able to point the type of set. For the study of bone lesions by a hatchet a standardized device was used to produce small bone lesions. The stereomicroscope was able to observe the vertical striae explained by the vertical movement of the instrument at the time of impact. The scanning electron microscope allowed for a detailed analysis of bone lesions and made it possible to understand the uprising and the lateral pushing back. The presence of a lateral pushing back and of vertical striae is sufficient to determine that the bone lesions were achieved by a sharp blunt instrument. These characters are visible even after carbonization.
82

Study and optimization of 2D matrix arrays for 3D ultrasound imaging / Etude et optimisation de sondes matricielles 2D pour l'imagerie ultrasonore 3D

Diarra, Bakary 11 October 2013 (has links)
L’imagerie échographique en trois dimensions (3D) est une modalité d’imagerie médicale en plein développement. En plus de ses nombreux avantages (faible cout, absence de rayonnement ionisant, portabilité) elle permet de représenter les structures anatomiques dansleur forme réelle qui est toujours 3D. Les sondes à balayage mécaniques, relativement lentes, tendent à être remplacées par des sondes bidimensionnelles ou matricielles qui sont unprolongement dans les deux directions, latérale et azimutale, de la sonde classique 1D. Cetagencement 2D permet un dépointage du faisceau ultrasonore et donc un balayage 3D del’espace. Habituellement, les éléments piézoélectriques d’une sonde 2D sont alignés sur unegrille et régulièrement espacés d’une distance (en anglais le « pitch ») soumise à la loi del’échantillonnage spatial (distance inter-élément inférieure à la demi-longueur d’onde) pour limiter l’impact des lobes de réseau. Cette contrainte physique conduit à une multitude d’éléments de petite taille. L’équivalent en 2D d’une sonde 1D de 128 éléments contient128x128=16 384 éléments. La connexion d’un nombre d’éléments aussi élevé constitue unvéritable défi technique puisque le nombre de canaux dans un échographe actuel n’excède querarement les 256. Les solutions proposées pour contrôler ce type de sonde mettent en oeuvredu multiplexage ou des techniques de réduction du nombre d’éléments, généralement baséessur une sélection aléatoire de ces éléments (« sparse array »). Ces méthodes souffrent dufaible rapport signal à bruit du à la perte d’énergie qui leur est inhérente. Pour limiter cespertes de performances, l’optimisation reste la solution la plus adaptée. La première contribution de cette thèse est une extension du « sparse array » combinéeavec une méthode d’optimisation basée sur l’algorithme de recuit simulé. Cette optimisation permet de réduire le nombre nécessaire d’éléments à connecter en fonction des caractéristiques attendues du faisceau ultrasonore et de limiter la perte d’énergie comparée à la sonde complète de base. La deuxième contribution est une approche complètement nouvelle consistant à adopter un positionnement hors grille des éléments de la sonde matricielle permettant de supprimer les lobes de réseau et de s’affranchir de la condition d’échantillonnage spatial. Cette nouvelles tratégie permet d’utiliser des éléments de taille plus grande conduisant ainsi à un nombre d’éléments nécessaires beaucoup plus faible pour une même surface de sonde. La surface active de la sonde est maximisée, ce qui se traduit par une énergie plus importante et donc unemeilleure sensibilité. Elle permet également de balayer un angle de vue plus important, leslobes de réseau étant très faibles par rapport au lobe principal. Le choix aléatoire de la position des éléments et de leur apodization (ou pondération) reste optimisé par le recuit simulé.Les méthodes proposées sont systématiquement comparées avec la sonde complète dansle cadre de simulations numériques dans des conditions réalistes. Ces simulations démontrent un réel potentiel pour l’imagerie 3D des techniques développées. Une sonde 2D de 8x24=192 éléments a été construite par Vermon (Vermon SA, ToursFrance) pour tester les méthodes de sélection des éléments développées dans un cadreexpérimental. La comparaison entre les simulations et les résultats expérimentaux permettentde valider les méthodes proposées et de prouver leur faisabilité. / 3D Ultrasound imaging is a fast-growing medical imaging modality. In addition to its numerous advantages (low cost, non-ionizing beam, portability) it allows to represent the anatomical structures in their natural form that is always three-dimensional. The relativelyslow mechanical scanning probes tend to be replaced by two-dimensional matrix arrays that are an extension in both lateral and elevation directions of the conventional 1D probe. This2D positioning of the elements allows the ultrasonic beam steering in the whole space. Usually, the piezoelectric elements of a 2D array probe are aligned on a regular grid and spaced out of a distance (the pitch) subject to the space sampling law (inter-element distancemust be shorter than a mid-wavelength) to limit the impact of grating lobes. This physical constraint leads to a multitude of small elements. The equivalent in 2D of a 1D probe of 128elements contains 128x128 = 16,384 elements. Connecting such a high number of elements is a real technical challenge as the number of channels in current ultrasound scanners rarely exceeds 256. The proposed solutions to control this type of probe implement multiplexing or elements number reduction techniques, generally using random selection approaches (« spars earray »). These methods suffer from low signal to noise ratio due to the energy loss linked to the small number of active elements. In order to limit the loss of performance, optimization remains the best solution. The first contribution of this thesis is an extension of the « sparse array » technique combined with an optimization method based on the simulated annealing algorithm. The proposed optimization reduces the required active element number according to the expected characteristics of the ultrasound beam and permits limiting the energy loss compared to the initial dense array probe.The second contribution is a completely new approach adopting a non-grid positioningof the elements to remove the grating lobes and to overstep the spatial sampling constraint. This new strategy allows the use of larger elements leading to a small number of necessaryelements for the same probe surface. The active surface of the array is maximized, whichresults in a greater output energy and thus a higher sensitivity. It also allows a greater scansector as the grating lobes are very small relative to the main lobe. The random choice of the position of the elements and their apodization (or weighting coefficient) is optimized by the simulated annealing.The proposed methods are systematically compared to the dense array by performing simulations under realistic conditions. These simulations show a real potential of the developed techniques for 3D imaging.A 2D probe of 8x24 = 192 elements was manufactured by Vermon (Vermon SA, Tours,France) to test the proposed methods in an experimental setting. The comparison between simulation and experimental results validate the proposed methods and prove their feasibility. / L'ecografia 3D è una modalità di imaging medicale in rapida crescita. Oltre ai vantaggiin termini di prezzo basso, fascio non ionizzante, portabilità, essa permette di rappresentare le strutture anatomiche nella loro forma naturale, che è sempre tridimensionale. Le sonde ascansione meccanica, relativamente lente, tendono ad essere sostituite da quelle bidimensionali che sono una estensione in entrambe le direzioni laterale ed azimutale dellasonda convenzionale 1D. Questo posizionamento 2D degli elementi permette l'orientamentodel fascio ultrasonico in tutto lo spazio. Solitamente, gli elementi piezoelettrici di una sondamatriciale 2D sono allineati su una griglia regolare e separati da una distanza (detta “pitch”) sottoposta alla legge del campionamento spaziale (la distanza inter-elemento deve esseremeno della metà della lunghezza d'onda) per limitare l'impatto dei lobi di rete. Questo vincolo fisico porta ad una moltitudine di piccoli elementi. L'equivalente di una sonda 1D di128 elementi contiene 128x128 = 16.384 elementi in 2D. Il collegamento di un così grandenumero di elementi è una vera sfida tecnica, considerando che il numero di canali negliecografi attuali supera raramente 256. Le soluzioni proposte per controllare questo tipo disonda implementano le tecniche di multiplazione o la riduzione del numero di elementi, utilizzando un metodo di selezione casuale (« sparse array »). Questi metodi soffrono di unbasso rapporto segnale-rumore dovuto alla perdita di energia. Per limitare la perdita di prestazioni, l’ottimizzazione rimane la soluzione migliore. Il primo contributo di questa tesi è un’estensione del metodo dello « sparse array » combinato con un metodo di ottimizzazione basato sull'algoritmo del simulated annealing. Questa ottimizzazione riduce il numero degli elementi attivi richiesto secondo le caratteristiche attese del fascio di ultrasuoni e permette di limitare la perdita di energia.Il secondo contributo è un approccio completamente nuovo, che propone di adottare un posizionamento fuori-griglia degli elementi per rimuovere i lobi secondari e per scavalcare il vincolo del campionamento spaziale. Questa nuova strategia permette l'uso di elementi piùgrandi, riducendo così il numero di elementi necessari per la stessa superficie della sonda. La superficie attiva della sonda è massimizzata, questo si traduce in una maggiore energia equindi una maggiore sensibilità. Questo permette inoltre la scansione di un più grande settore,in quanto i lobi secondari sono molto piccoli rispetto al lobo principale. La scelta casualedella posizione degli elementi e la loro apodizzazione viene ottimizzata dal simulate dannealing. I metodi proposti sono stati sistematicamente confrontati con la sonda completaeseguendo simulazioni in condizioni realistiche. Le simulazioni mostrano un reale potenzialedelle tecniche sviluppate per l'imaging 3D.Una sonda 2D di 8x24 = 192 elementi è stata fabbricata da Vermon (Vermon SA, ToursFrance) per testare i metodi proposti in un ambiente sperimentale. Il confronto tra lesimulazioni e i risultati sperimentali ha permesso di convalidare i metodi proposti edimostrare la loro fattibilità.
83

Modèles mathématiques des procédés de séparation membranaire / Mathematical modelling of membrane separation processes

Perfilov, Viacheslav 03 December 2018 (has links)
Dans cette thèse ont été développés des modèles mathématiques pour les procédés de distillation membranaire à contact direct (DCMD) et avec balayage gazeux (SGMD) ainsi qu’un modèle sur l’hydrodynamique des bioréacteurs membranaires anaérobiques (AnMBRs) équipés d’un système de vibration membranaire induite (MMV). Les modèles pour la DCMD et la SGMD permettent de simuler le comportement des modules plats ou à fibres creuses sous différentes conditions opératoires, sans avoir recours aux données expérimentales ou à des équations empiriques pour les transferts de masse et de chaleur. Les modèles ont été validés avec des résultats expérimentaux et de la littérature et ont permis de déterminer l'influence de différents paramètres opérationnels et de la géométrie des modules sur les performances des procédés. Le modèle développé pour les AnMBRs équipés du système MMV permet d’étudier l’effet de la vibration membranaire sur l’hydrodynamique du réservoir. L’analyse paramétrique a permis d’étudier l’effet de la fréquence et de l’amplitude des vibrations sur la vitesse du fluide et la fraction volumique des solides dans le réservoir. Dans ce travail il a été démontré que les modèles proposés pourront être potentiellement appliqués à des études expérimentales préliminaires, l’optimisation des conditions opératoires, la conception des modules membranaires ainsi que pour l’estimation des coûts des procédés. / In this work have been developed general predictive models for direct contact membrane distillation (DCMD) and sweeping gas membrane distillation (SGMD) as well as a hydrodynamic model for anaerobic membrane bioreactors (AnMBRs) equipped with the induced membrane vibration (MMV) system. The DCMD and SGMD models allow simulating hollow fibre and flat sheet configurations under wide range of process conditions without empirical mass and heat transfer coefficients or laboratory experiments. The models have been validated with experimental and literature data. Indeed, the influence of operating conditions and membrane geometric characteristics on the process performance has been investigated. The model for AnMBRs with MMV studies the effect of the membrane vibration on the hydrodynamics of the AnMBR tank. The parametric study allows knowing, the effects of the vibration frequency and amplitude on the fluid velocity and volume fraction of solids. The conducted studies prove that all the proposed models would be potentially applied for the pre-experimental study, optimization of process conditions, design of membrane modules as well as for the further cost estimation of the processes.
84

Photothermal studies on cryoprotectant media / Études photothermiques de milieux cryoprotecteurs

Mathew, Allen 11 July 2018 (has links)
La mise en place, l'étalonnage et l'utilisation d'un nouveau banc expérimental basses températures basé sur une technique photothermique appelée photo pyroélectricité (PPE) sont décrits dans ce manuscrit. Les échantillons que nous avons étudiés en utilisant ce nouvel instrument sont le glycérol, le 1,2 propanediol et leurs mélanges binaires avec l'eau. Ce sont des cryoprotecteurs bien connus (CPAs) utilisés dans la cryoconservation, qui est une technique de préservation des cellules et tissus vivants en les refroidissant à des très basses températures. Le but ultime de la cryoconservation est d'éviter ou de maîtriser la formation de glace et d'atteindre un état vitreux ou amorphe. La vitesse de refroidissement, de chauffage et la concentration des CPAs utilisés sont les paramètres clés qui déterminent la formation de la glace. Par conséquent, l'étude des propriétés thermiques, en particulier près de la transition vitreuse (Tg) des solutions binaires des CPAs avec de l'eau est très importante pour comprendre leur comportement lors du refroidissement. La PPE a été utilisée pour étudier l'effusivité et le temps de relaxation ∝ caractéristique de la transition vitreuse. Le Tg et la fragilité (m) ont été déterminés à partir des données de la PPE en utilisant le modèle d'Havriliak Negami. L'état vitreux présente une très grande viscosité, de l'ordre de 10¹² Pa.s au voisinage du Tg. Le Tg et m peuvent être calculés à partir de l'évolution de la viscosité en fonction de la température ou par calorimétrie différentielle à balayage (DSC). Ainsi, des études à l'aide de ces deux techniques ont été menées et les résultats ont été comparés avec les données de la PPE. / The construction, calibration and application of a new low temperature instrument based on a photothermal technique called photo pyroelectricity (PPE) is described in this manuscript. The samples we studied using the new PPE instrument were glycerol, 1,2 propanediol and their binary mixtures with water. These liquids are well known cryoprotectants (CPAs) used in cryopreservation, which is a technique to preserve the living cells and tissues from biological degradation by cooling to sub zero temperatures. The ultimate goal in cryopreservation is to avoid or control the ice formation and attain a glassy or amorphous state.The rate of cooling and heating and the concentration of the CPAs used are the key parameters that determine the ice formation. Therefore, studying the temperature dependent thermal properties especially near their glass transition temperature (Tg) of the binary solutions of CPAs with water at different concentrations are highly important to understand their behavior while cooling. The PPE technique was used to study the effusity and the ∝ relaxation time near the glass transition phenomenon. The Tg and fragility (m) were determined from the PPE data using the Havriliak Negami model. The glassy state has a characteristic property of very high viscosity, of the order of 10¹² Pa.s at Tg. The Tg and m can be calculated from the temperature evolution of viscosity or from Differential Scanning Calorimetry (DSC) measurements. Therefore, viscosity and DSC studies were conducted on the samples and were compared with PPE data.
85

Passage à l'échelle pour les contraintes d'ordonnancement multi-ressources / Scalable multi-dimensional resources scheduling constraints

Letort, Arnaud 28 October 2013 (has links)
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d’origines diverses. Dans cette thèse nous nous focalisons sur les problèmes d’ordonnancement cumulatif. Un problème d’ordonnancement consiste à déterminer les dates de débuts et de fins d’un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l’on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l’on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l’aide d’algorithmes dédiés et de métaheuristiques. Par exemple, l’utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d’ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l’idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d’accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appelées à chaque nœud de l’arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d’un million de tâches et 64 ressources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes déplacement et d’ordonnancement. / Constraint programming is an approach often used to solve combinatorial problems in different application areas. In this thesis we focus on the cumulative scheduling problems. A scheduling problem is to determine the starting dates of a set of tasks while respecting capacity and precedence constraints. Capacity constraints affect both conventional cumulative constraints where the sum of the heights of tasks intersecting a given time point is limited, and colored cumulative constraints where the number of distinct colors assigned to the tasks intersecting a given time point is limited. A newly identified challenge for constraint programming is to deal with large problems, usually solved by dedicated algorithms and metaheuristics. For example, the increasing use of virtualized datacenters leads to multi dimensional placement problems of thousand of jobs. Scalability is achieved by using a synchronized sweep algorithm over the different cumulative and precedence constraints that allows to speed up convergence to the fix point. In addition, from these filtering algorithms we derive greedy procedures that can be called at each node of the search tree to find a solution more quickly. This approach allows to deal with scheduling problems involving more than one million jobs and 64 cumulative resources. These algorithms have been implemented within Choco and SICStussolvers and evaluated on a variety of placement and scheduling problems.
86

Conception et réalisation d'une caméra à balayage de fente à résolution temporelle picoseconde et à haut taux de répétition / Design and implementation of a picosecond time-resolved streak camera and high repetition rate

Wlotzko, Vincent 03 March 2016 (has links)
Les caméras à balayage de fente sont les instruments de détection directe de la lumière les plus précis en termes de résolution temporelle. Ces instruments sont capables de capturer des évènements de l’ordre de la picoseconde à un taux de répétition d’une centaine de mégahertz. Cependant, les performances de la caméra sont limitées par de nombreux phénomènes propres au fonctionnement de cette dernière mais aussi au système l’implémentant. Plusieurs effets dégradant la résolution temporelle sont étudiés. Le premier axe exploré concerne la synchronisation de la caméra avec l’évènement lumineux capturé. Cette investigation débouche sur le développement d’un discriminateur à fraction constante permettant de déclencher la caméra avec un jitter inférieur à 200 fs RMS. Une autre étude présente l’impact qu’ont le bruit d’amplitude et le bruit de phase des lasers usuellement utilisés avec la caméra sur sa synchronisation. Enfin une analyse des phénomènes intrinsèques à la photocathode de la caméra permet d’évaluer la variation du temps de transit des électrons dans celle-ci. / Streak cameras are the direct light detection instruments that are the best in terms of temporal resolution. Those instruments can capture picosecond light events at a hundred megahertz repetition rate. However their characteristics are limited by various phenomena specific to the camera and the implementing system. Several effects that affect the temporal resolution are studied. The first examined line deals with the synchronization of the camera with the studied light event. This inquiry led to the design of a constant fraction discriminator allowing a sub 200 fs RMS jitter triggering. Another study shows the impact of the usually used laser amplitude noise and phase noise on the system’s synchronization. Finally, an analysis of the camera’s photocathode intrinsic phenomena allows estimating the transit time variation of the electrons within the vacuum tube.
87

Mesure de distance absolue utilisant l'interférométrie à balayage de longueur d'onde étalonnée par un peigne de fréquences / Absolute distance measurement using frequency sweeping interferometry calibrated by frequency comb

Yu, Wenhui 10 April 2019 (has links)
Dans cette thèse, nous avons mis en oeuvre un système de mesure de distance absolue (Absolute Distance Measurement, ADM) de haute précision utilisant l'interférométrie à balayage de fréquence (Frequency Sweeping Interferometry, FSI). La technique FSI exige que la plage de réglage de fréquence du laser balayé soit mesurée avec une précision élevée, ce qui est difficile en raison de l'absence d'un moyen simple de mesurer la haute fréquence d'un laser en temps réel. Dans cette thèse, un peigne de fréquence a été utilisé comme règle de fréquence lumière pour mesurer la plage de réglage de la fréquence du laser à balayage. Un peigne de fréquence formé par un laser femtoseconde est constitué de millions de lignes de peigne régulièrement espacées, ce qui permet de le considérer comme une règle de fréquence de la lumière. La calibration de fréquence a été réalisée en filtrant le signal hétérodyne entre le laser à balayage et les lignes de peigne en utilisant un filtre passe-bande étroit. Cette approche nous permet de détecter le signal d'étalonnage lorsque la fréquence du laser à balayage est proche d'une ligne en peigne. Etant donné que l’intervalle de fréquence entre les lignes de peigne peut être mesuré avec précision ou activement verrouillé en phase par rapport à un oscillateur radiofréquence (RF) stable, la plage d ’ accord du laser à balayage peut être mesurée avec une grande précision. En particulier, chacun des deux pics d’étalonnage peut être utilisé dans le calcul de la distance, ce que nous appelons des «sous-mesures» en un seul balayage. Combinée au grand nombre de lignes de peigne, la moyenne des sous-mesures améliore considérablement la précision des mesures sans balayage multiple. Dans la thèse, la condition de détection et les caractéristiques du signal hétérodyne entre le laser à balayage et la ligne de peigne sont présentées. Une conception de filtre pour filtrer le signal hétérodyne est réalisée. Un travail de modélisation concernant l'effet du bruit de phase des lasers sur la distorsion d'enveloppe du pic d'étalonnage a été présenté. Des travaux expérimentaux basés sur les concepts de mesure ont été réalisés. Il montre que l'utilisation du schéma de mesure proposé peut considérablement améliorer la précision de la mesure de distance. Dans l’une des mesures, une précision de 30 nm pour une distance d’environ 0,8 m, correspondant à une incertitude relative de 37 ppm (part-perbillion) a été obtenue. Le résultat a été obtenu sur la base d'une méthode de traitement du signal de comptage de franges. La grande précision a été obtenue grâce au grand nombre de sous-mesures et à la stabilité des lignes de peigne régulièrement espacées. Nous avons constaté que la mesure de vibration de la cible peut également être effectuée en prenant avantage des lignes de peigne denses. Une sensibilité élevée, limitée à 1,7 nm efficace en bruit, de la mesure des vibrations a été atteinte. Ce résultat nous permet de surveiller la vibration de la cible, ce qui est un problème important de la technique FSI. / In this thesis, we implemented a high-precision absolute distance measurement (ADM) system using frequency sweeping interferometry (FSI). The FSI technique requires the frequency tuning range of the swept laser to be measured with high accuracy and precision, which is challenging due to the lack of an easy way to measure the high frequency of a laser in real time. In this thesis, a frequency comb has been used as the light frequency ruler for measuring the frequency tuning range of the sweeping laser. A frequency comb formed by a femtosecond laser consists millions of evenly spaced comb lines so that can be regarded as a light frequency ruler. The frequency calibration was realized by filtering the heterodyne signal between the sweeping laser and the comb lines using a narrow bandpass filter. This approach allows us to detect the calibration signal when the frequency of the sweeping laser is in the vicinity of a comb line. As the frequency interval between the comb lines space can be precisely measured or actively phase-locked against a stable radio-frequency (RF) oscillator, the tuning range of the sweeping laser could be measured with high accuracy. Especially, each two calibration peaks can be used in the calculation of distance, which we call sub-measurements in a single sweeping. Combined with the large number of the comb lines, averaging of the sub-measurements improves greatly the measurement precision without multiple sweeping. In the thesis, the condition of detecting and the characteristics of the heterodyne signal between the sweeping laser and the comb line are presented. A filter design for filtering the heterodyne signal is performed. A modeling work concerning the effect of the phase noise of lasers on the envelope distortion of the calibration peak has been presented. Experimental works based on the measurement concepts have been carried out. It shows that using the proposed measurement scheme can greatly improve the distance measurement precision. In one of the measurements, a precision of 30 nm for a distance around 0.8 m, corresponding to 37 ppb (part-per-billion) relative uncertainty has been achieved. The result was obtained based on a fringe counting signal processing method. The high precision was obtained thanks to the large number of sub-measurements and the stability of the evenly spaced comb lines. We have found that vibration measurement of the target can be also performed taking the advantage of the dense comb lines. A high sensitivity, limited by 1.7 nm noise RMS, of vibration measurement has been achieved. This result allows us to monitor the vibration of the target, which is an important issue of FSI technique.
88

Imagerie directe de champ électrique par microscopie à balayage d'un transistor à électron unique / Direct imaging of electrical fields using a scanning single electron transistor

Nacenta Mendivil, Jorge P. 27 February 2019 (has links)
Dans le cadre de ce travail de doctorat, nous avons mis au point un nouveau microscope à balayage à transistor à électron unique (SET) qui fonctionne à très basse température (T = 50 mK) et à champs magnétiques intenses (18 T). Un SET se compose d'un petit îlot métallique relié aux électrodes de source et de drain par deux jonctions tunnel. En régime de blocage de Coulomb à basse température (T < 5 K), un champ électrique externe règle le courant circulant dans le SET. De plus, de petites variations du champ électrique entraînent de grandes variations du courant SET, ce qui fait de l'appareil un détecteur de charge très sensible, capable de détecter des charges inférieures à 0,01e. Ainsi, lorsque le SET scanne au-dessus d'une surface, il cartographie les propriétés électrostatiques de l'échantillon. Cependant, la mise en œuvre d'un microscope à balayage SET est extrêmement difficile car il combine la microscopie à sonde à balayage, les basses températures et les dispositifs nanoscopiques très sensibles. Pour cette raison, seuls quelques groupes ont réussi sa réalisation. Nos choix technologiques pour construire le microscope améliorent certains aspects par rapport aux instruments déjà existants.La percée est que nous fabriquons la sonde SET en utilisant des techniques lithographiques standard sur des plaquettes commerciales de silicium. C'est pourquoi il est possible de fabriquer des sondes SET par lots. De plus, grâce à une combinaison de techniques de découpage et de gravure, le SET est conçu très près du bord du substrat de Si (< 1 micromètre ). De cette façon, le SET peut être approché à quelques nanomètres de la surface de l'échantillon au moyen d'un contrôle de distance de force atomique. De plus, une électrode de grille fabriquée sur la sonde à proximité de l'îlot peut être utilisée pour régler le point de fonctionnement du SET. Une nouveauté de notre instrument est qu'avec cet électrode de grille et une boucle de rétroaction, nous avons cartographié directement le champ électrique local. Nous démontrons cette nouvelle méthode de balayage par rétroaction en imaginant un réseau interdigité d'électrodes à l'échelle nanométrique. De plus, le SET est un outil idéal pour l'étude de la localisation d'états électroniques. À l'avenir, notre microscope sera utilisé pour l'étude des systèmes d'électrons bidimensionnels en régime de l'effet Hall quantique, des isolants topologiques et de la transition métal-isolant. / In this doctoral work, we have developed a new scanning single electron transistor (SET) microscope that works at very low temperatures (T = 50 mK) and high magnetic fields (B = 18 T). A SET consists of a small metallic island connected to source and drain electrodes through two tunnel junctions. In the Coulomb blockade regime at low temperature regime (T 5 K), an external electric field tunes the current circulating through the SET. In addition,small electric field variations lead to large SET current changes that makes the device a highly sensitive charge detector, able to detect charges smaller than 0.01 e. Thus, when the SET scans above a surface, it maps the electrostatic properties of the sample. However, the implementation of a scanning SET microscope is extremely challenging since it combines scanning probe microscopy, low temperatures and sensitive nanoscopic devices. For thisreason, only a few groups have succeeded its realization. Our technological choices to build the microscope improve certain aspects with respect to the already existing instruments. The breakthrough is that we fabricate the SET probe using standard lithographic techniques on commercial silicon wafers.For that reason, batch fabrication of SET probes is possible. Furthermore, by a combination of dicing and etching techniques, the SET is engineered extremely close to the edge of the Si chip (< 1 micrometer). In this way, the SET can be approached to a few nanometer from the sample surface by means of a atomic force distance control. Additionally, an on-probe gate electrode fabricated close to the island can be used to tune the operating point of the SET. Anovelty of our instrument is that with this on-probe gate and a feedback loop we have been able to map directly the local electric field. We demonstrate this new feedback scanning method by imaging an interdigitated array of nanometer scale electrodes. Moreover, the SET is an ideal tool for the study of the localization of electronic states. In the future, our scanning SET will be used for the study of two-dimensional electron systems in the quantum Hall regime, topological insulators and the metal insulator transition.
89

Optimisation d'une source vibratoire pour la détection des cavités souterraines par sismique réflexion haute résolution / Optimization of a vibratory source for cavity detection by high resolution seismic

Kosecki, Arkadiusz 07 December 2009 (has links)
L’objectif principal de cette thèse est de développer et d’optimiser les outils d’acquisition de la technique de Sismique réflexion haute résolution (SHR) afin d’améliorer ses performances pour la détection des cavités souterraines. Il est communément admis que l’imagerie SHR est d’autant plus complexe que la profondeur de la cible est petite. Les travaux menés dans le cadre de cette thèse devraient remédier à certains problèmes les plus critiques identifiés lors des applications de la SHR.L’utilisation des sources vibratoires présente des avantages indéniables (non destructivité, contrôle du signal émis...) par rapport aux sources « classiques » (i.e. impulsionnelles, destructives) mais leur application optimale nécessite un choix correct du signal émis.Ainsi, les travaux de recherche réalisés ont permis de (1) développer un système complet de pilotage par ordinateur d’une mini-source vibratoire destinée à l’imagerie SHR, (2) développer une méthode de génération de signaux émis. En établissant un lien entre le signal d’entrée et l’image sismique obtenue, cette procédure offre la possibilité à l’utilisateur de choisir le signal émis en fonction des conditions de terrain, et des objectifs des mesures, (3) tester le fonctionnement du système développé avec plusieurs mini-vibrateurs.Le système développé ainsi est testé et validé dans les tests à petite échelle. Ensuite, il a été utilisé dans les conditions réelles avec l’objectif « détection des cavités » dans le contexte salin (anciennes mines de sel en Lorraine, profondeur : 160 m - 180 m) et les marnières de Haute Normandie (anciennes carrières de craie, profondeur : 15 m - 45 m) / The main objective of this thesis is to develop and optimize the acquisition tools for High Resolution Reflection Seismic (HRS) technique in order to improve its performances in the detection of underground cavities. It is commonly admitted that HRS imaging becomes more complicated with when the depth of interest is decreased. The work carried out in the frame of this thesis aims to bring solutions to some of the most critical problems identified in application of the HRS.The vibratory sources show undeniable advantages (non destructivity, controllable output signal) over “classic” (impulsive, destructive) sources. However, the optimal use of these sources depends on the proper choice of emitted signal.Thus, the research work carried out resulted in (1) development of a complete, computer-based vibrator control system allowing piloting small vibratory source intended to use for HRS surveys, (2) development of a method for generating the source signal. The proposed procedure links the entry signal with seismic image and thus allows the choice of the signal in terrain conditions and with regard to the measurement goals, (3) extensive testing of the developed system with several portable vibratory sources.The developed system was tested and validated in small-scale tests. Afterwards it was used in real conditions with the goal of “cavity detection” in salt-mining context (old salt mines in Lorraine region at depths between 160 m and 180 m) as well as in chalk-mining area (ancient marl-pit quarries in the Normandy region at depths 15 m - 45 m)
90

Dispositifs flexibles de communication à 60 GHz reconfigurables mécaniquement / Ultrasoft reconfigurable millimeter-wave antennas and devices based on Magneto-Electro-Mechanical Microsystems (MMEMS) : design, fabrication, measurements

Orlic, Yovan 17 January 2014 (has links)
Il y a à l’heure actuelle un grand besoin d’antennes reconfigurables dans la bande des 60 GHz pour des applications de télédétection et de télécommunication sans fil. Les solutions traditionnelles de reconfiguration sont basées sur des semi-conducteurs ou des composants RF-MEMS conventionnels dont le coût, la complexité et les pertes croissent avec la fréquence.Dans cette thèse une approche originale a été développée : elle est basée sur la reconfiguration mécanique d’antennes et de dispositifs sur substrat élastomère souple PDMS et l’utilisation d’actionneurs MEMS grand déplacement.L’histoire et le contexte de la télécommunication sont abordés pour faire comprendre l’intérêt récent pour la communication à 60 GHz ainsi que la nécessité de la reconfiguration et l’avantage de la reconfiguration mécanique à cette fréquence. Le PDMS, polymère ultra-souple de choix est ensuite étudié en détail. Il est caractérisé mécaniquement et diélectriquement. Sont ensuite présenté les applications développées par cette approche : des antennes accordables en fréquence ainsi que des dispositifs permettant un balayage de l’espace. Différents mode d’actionnement (pneumatique, magnétique, interaction électro-fluidique) sont explorés. / There is an increasing need for tunable antennas in the 60 GHz band for remote sensing application and wireless communication. Traditional tuning solutions are based on semiconductor or conventional RF-MEMS but these component face cost, complexity and losses issues at millimeter waves. In this thesis, an original approach was developed: it is based on the mechanical reconfiguration of millimeter wave microstrip antennas and devices printed on ultrasoft elastomeric PDMS substrate, thanks to large displacement MEMS actuators.First, a quick history and context on the telecommunication explain the recent interest toward the 60 GHz band for telecommunication and the need for tenability and advantage of mechanical tenability at this frequencies. The ultrasoft polymeric PDMS is then studied. It is caracterised both mechanically and dielectrially. Then the different applications developed during this thesis are presented: frequency tunable antenna and beam steering systems. Different actuation solution (pneumatic, magnetic, electro-fluidic interaction) are explored.

Page generated in 0.0451 seconds