Spelling suggestions: "subject:"rapide"" "subject:"lapide""
161 |
Calcul formel dans la base des polynômes unitaires de Chebyshev / Symbolic computing with the basis of Chebyshev's monic polynomialsTran, Cuong 09 October 2015 (has links)
Nous proposons des méthodes simples et efficaces pour manipuler des expressions trigonométriques de la forme $F=\sum_{k} f_k\cos\tfrac{k\pi}{n}, f_k\in Z$ où $d<n$ fixé. Nous utilisons les polynômes unitaires de Chebyshev qui forment une base de $Z[x]$ avec laquelle toutes les opérations arithmétiques peuvent être exécutées aussi rapidement qu'avec la base de monômes, mais également déterminer le signe et une approximation de $F$, calculer le polynôme minimal de $F$. Dans ce cadre nous calculons efficacement le polynôme minimal de $2\cos\frac{\pi}{n}$ et aussi le polynôme cyclotomique $\Phi_n$. Nous appliquons ces méthodes au calcul des diagrammes de nœuds de Chebyshev $C(a,b,c,\varphi) : x=T_a(t), y=T_b(t), z=T_c(t+\varphi)$, ce qui permet de tester si une courbe donnée est un nœud, et aussi lister tous les nœuds de Chebyshev possibles quand un triple $(a,b,c)$ fixé en bonne complexité. / We propose a set of simple and fast algorithms for evaluating and using trigonometric expressions in the form $F=\sum_{k}f_k\cos\frac{k\pi}{n}$, $f_k\in Z$ where $d<n$ fixed. We make use of the monic Chebyshev polynomials as a basis of $Z[x]$. We can perform arithmetic operations (multiplication, division, gcd) on polynomials expressed in a Chebyshev basis (with the same bit-complexity as in the monomial basis), compute the sign of $F$, evaluate it numerically and compute its minimal polynomial in $Q[x]$. We propose simple and efficient algorithms for computing the minimal polynomial of $2\cos\frac{\pi}{n}$ and also the cyclotomic polynomial $\Phi_n$. As an application, we give a method to determine the Chebyshev knot's diagrams $C(a,b,c,\varphi) : x=T_a(t),y=T_b(t), z=T_c(t+\varphi)$ which allows to test if a given curve is a Chebyshev knot, and point out all the possible Chebyshev knots coressponding a fixed triple $(a,b,c)$, all of these computings can be done with a good bit complexity.
|
162 |
Modélisation biomathématique du métabolisme énergétique cérébral : réduction de modèle et approche multi-échelle, application à l'aide à la décision pour la pathologie des gliomes / Biomathematical modeling of brain energy metabolism : model reduction and multi-scaled approach, application to decision support for glioma pathologyLahutte Auboin, Marion 16 March 2015 (has links)
Plusieurs modèles compartimentaux ont déjà été développés pour représenter le métabolisme desneurones et astrocytes. De tels modèles impliquent un trop grand nombre de variables pour êtreaccessibles à l’analyse mathématique et jusqu’à maintenant ils n’ont été discutés que par le biais desimulations numériques. Le point de vue adopté ici est de réduire la contribution de plusieurscompartiments en un terme de forçage, ne conservant que quelques variables dynamiques, et decaractériser ces termes de forçage qui sont compatibles avec les observations expérimentales. Nousdiscutons d’abord un système forcé à deux dimensions puis nous passons à un système à quatredimensions, qui permet alors de faire la distinction entre neurones et astrocytes. Nous nousconcentrons dans ces deux cas sur la compréhension de deux phénomènes important observésexpérimentalement. Le premier est la déflexion initiale ou dip initial de la concentration de lactateextracellulaire rapportée pour la première fois par Hu et Wilson, visualisée in vivo après unestimulation électrique de l’hippocampe d’un rat. L’autre est l’accrochage des fréquences en réponse àl’application d’une séquence périodique de stimulus, observé par Hu et Wilson, et discuté plus tard parl’équipe Aubert-Costalat-Magistretti-Pellerin, sur la base de simulations numériques du systèmeAubert-Costalat. Plus précisément, le dip initial peut être parfaitement expliqué dans le cadre d’unedynamique lente-rapide, par le théorème de l’existence d’une variété lente quand la variété critique estattractive. L’accrochage des fréquences est discutée à la fois au travers de simulations numériques deMatlab et d’une analyse mathématique des systèmes forcés lents-rapides. / Several compartmental models have been developed to represent the metabolism of neurons andastrocytes. Such models involve too many variables to be accessible to mathematical analysis and untilnow they were only discussed via numerical simulations. The viewpoint adopted here is to reduceseveral compartments contributions into a forcing term, keeping very few dynamical variables, andcharacterize these forcing terms which are compatible with the observations. We first discuss a twodimensionalforced system and then move to a four-dimensional system which allows to distinguishbetween neurons and astrocytes. We focus on these two cases in the understanding of two importantphenomena observed in experiments. One is the initial dip in the extracellular lactacte concentration,first reported in vivo by Hu and Wilson on rat brain hippocampus after an electrical stimulation. Theother is a frequency locking response to the application of a periodic sequence of stimuli, alsoobserved by Hu and Wilson, and further discussed by Aubert-Costalat-Magistretti-Pellerin, on thebasis of numerical simulations of the Aubert-Costalat system. More precisely, the initial dip can bewell explained, in the setting of fast-slow dynamics, by the theorem of existence of slow manifoldwhen the critical manifold is transversally attractive. The frequency locking is discussed both viaMatlab numerical simulations and mathematical analysis of forced fast-slow systems.
|
163 |
Development of an original 10 kHz Ti : Sa regenerative cavity allowing 17 fs CEP stable 1 kHz TW-class amplification or wavelength tunability / Développement d’une nouvelle configuration de cavité régénérative à 10 kHz, permettant l’amplification à1 kHz d’impulsions de durée 17 fs, stabilisées en CEP dans la classe TW ou accordables en longueur d’onde à10 ou 1 kHzGolinelli, Anna 21 January 2019 (has links)
Au cours de dix dernières années la science aux attoseconde ou Physique au champ-fort a été l’objet d’un fort développement. La production d’impulsions laser énergétiques de courte durée à haute cadence et stabilisées en CEP constitue la première étape pour accéder aux dynamiques ultra-rapides caractérisant l’interaction de la matière avec une source de lumière cohérente, intense et ultra-rapide. Le travail de cette thèse consiste à améliorer globalement les performances d’un système laser Ti:Sa à haute cadence optimisé pour la génération des impulsions attoseconde. Nous avons développé une nouvelle configuration de cavité régénérative fonctionnant à 10 kHz qui permet une meilleure gestion des effets thermiques dans le cristal. En sortie de l’amplificateur les impulsions atteignent des valeurs de puissance de 5 W en bande étroite (35 fs), ou 2.7 W en bande spectrale large permettant une compression des impulsions proche de 17 fs. La CEP des impulsions en sortie d’amplificateur a été stabilisée ; le bruit résiduel mesuré tir-à-tir est de 210 mrad pendant trois heures.L’amplificateur peut supporter également le fonctionnement en mode accordable, en sélectionnant des spectres de 30 à 40 nm de largeur à mi-hauteur et en accordant leur longueur d’onde centrale dans une gamme de 80 nm autour de 800 nm. Nous avons conçu et mis en fonctionnement un amplificateur multi-passages non-cryogéné à imagerie par lentille thermique pour accroître la puissance des impulsions jusqu’à 10 W à une cadence de 1 kHz. Le régime de forte saturation d’amplificateur garantit une variation négligeable (±3% pic à pic) de la puissance des impulsions en sortie du module, face à une variation importante de la puissance en entrée (±25% pic à pic) sur la bande spectrale accordable. L’amplification peut encore être plus importante grâce à une ligne d’amplification à refroidissement cryogénique, qui permet d’atteindre des puissances au niveau TW, à la cadence de 1 kHz, tout en maintenant un régime de courte durée (17.5 fs) et stabilité en CEP (350 mrad de bruit résiduel tir-à-tir). Nous proposons aussi une étude des sources de bruit de CEP dans les modules hautement dispersifs: nous avons conçu une nouvelle approche numérique sur la base d’un logiciel de tracé de rayon commercial (Zemax) pour évaluer les variations de CEP dans les modules contenant réseaux de diffraction. / The last decade has seen a lot of progress in attosecond science or in strong field physics. Generating energetic, few-cycle laser pulses with stabilized Carrier-Envelope Phase at high repetition rate constitutes the first step to access the ultra-fast dynamics underlying the interaction of matter with intense, ultrashort coherent light source. The work of this thesis consists in globally improving the performances of a high repetition rate Ti:Sa laser system optimized for attosecond science. We present an original 10 kHz Ti:Sa CPA laser based on an newlydesigneddouble-crystal cavity for thermal lensing management. The amplifier delivers up to 5 W in narrow band mode (35 fs pulses), or 2.7 W in broad band mode, supporting 17 fs pulses after temporal compression. We demonstrate shot-to-shot CEP stabilization with a remaining noise of 210 mrad over three hours at the front-end output. In parallel to the short pulse duration operation mode, it is possible to use the front end in a wavelength tunability mode within a 80 nm range around 800 nm, with a resolution of 1 nm and 30 to 40 nm of bandwidth. We designed and demonstrated a complete water-cooled lens-less multipass amplifier using thermal lensing for modeadaptation boosting the pulse energy up to 10mJ at 1 kHz repetition rate (up to 10 W). The saturation regime of the amplifier ensures negligible variation (±3% peak to peak) of the output power for significant variation of the input power (±25% peak to peak) over the tunability range. The energy scalability of the front-end is demonstrated by coupling its output to cryogenically cooled amplifier, delivering 1 kHz, TW-class pulses at 17.5 fs and CEP stabilized with a residual noise of 350 mrad. A study of CEP noise sources in high dispersive module is also addressed, proposing a numerical approach based on a commercial ray-tracing software (Zemax) for predicting CEP fluctuation in grating based modules.
|
164 |
Métrologie ultrarapide : application aux dynamiques laser et à l'imagerie / Ultrafast metrology : application to the study of laser dynamics and for imagingHanzard, Pierre-Henry 11 October 2018 (has links)
Ce travail de thèse s’inscrit dans le cadre de la caractérisation optique à haute cadence en temps réel. Des outils de métrologie ultrarapides ont ainsi été utilisés pour l’étude d’une source laser impulsionnelle ainsi que pour l’imagerie de phénomènes physiques. La mise en place et la caractérisation temporelle d’une source laser impulsionnelle a permis l’observation d’événements anormalement intenses pour certains régimes de fonctionnement, et ces dynamiques ont pu être confirmées numériquement. La compréhension de ces phénomènes présente un intérêt fondamentalmais également pratique, notamment en vue de limiter les dommages optiques dans les sources laser. L’utilisation d’une technique d’imagerie appelée « imagerie par étirage temporel » a permis l’observation de jets liquides à une cadence de 80MHz. Reposant sur le principe de Transformée de Fourier Dispersive, cette technique permet de rendre compte de phénomènes non-répétitifs à des cadences élevées, et ainsi d’outrepasser les limitations imposées par les systèmes d’enregistrement conventionnels. La technique a également permis l’étude d’ondes de choc générées par ablation laser, et la détermination du profil de vitesse de l’onde de choc à travers la zone de mesure. Le phénomène de réflexion d’une onde de choc sur une paroi a également pu être observé. / This PhD work is dedicated to optical characterization in real time. Ultrafast metrology tools have thus been used to study a pulsed laser source and also for physical phenomena imaging. The implementation of a temporally well characterized pulsed laser source allowed the observation of events involving abnormally high intensity, the dynamics of which have also been numerically studied and confirmed. Understanding of these phenomena addresses a fundamental and interesting need to prevent optical damage in laser sources. The use of the imaging technique called “time-stretch imaging” allowed the imaging of liquid sprays at an 80MHz repetition rate. Based on Dispersive Fourier Transform, this technique enables the study of non-repetitive events at high sampling frequency, and thus goes beyond the performance of traditional imaging devices. This technique also allowed the tracking of shockwaves, and thus profiling the shockwave’s velocity variation through its propagation along a certain measuring distance. Shockwave reflection has also been observed.
|
165 |
Atomic structure, electronic states and relaxation dynamics in photovoltaic materials and interfaces from photoemission-related spectroscopies / Structure atomique, états électroniques et dynamique de relaxation dans des matériaux et interfaces photovoltaïques par spectroscopies connexes à la photoémissionLee, Min-I 10 July 2018 (has links)
L'efficacité du processus photovoltaïque dépend du matériau actif à travers la structure de bande et la dynamique des porteurs de charge. Dans cette thèse, nous avons relié les propriétés électroniques et la dynamique de relaxation à la structure atomique des matériaux utilisés pour deux technologies différentes de cellules solaires, celle à base d’hétérostructures de silicium, et celle à base de pérovskites hybrides organiques-inorganiques. Dans les cellules solaires de silicium, nous avons analysé l'influence des défauts sur les propriétés électroniques des hétérostructures de silicium amorphe (a-Si:H/a-SIC:H/c-Si) par spectroscopies des niveaux de coeur et de la bande de valence. En particulier, nous avons quantifié le nombre de liaisons pendantes induites dans la couche a-Si:H par irradiation, et nous avons identifié les états électroniques qui leur sont associés. Enfin nous avons expliqué les transitions précédemment observées par photoluminescence. Dans les cellules solaires à pérovskite hybride, nous avons corrélé la structure atomique, la structure électronique et la dynamique électronique pour des pérovskites bi- et tridimensionnelles. Dans ce but nous avons utilisé tout un panel de techniques complémentaires: diffraction des rayons X, spectroscopie de photoémission résolue en angle, spectroscopie de photoémission inverse et photoémission à deux photons résolue en temps. Pour la pérovskite bidimensionnelle (C₆H₅C₂H₄NH₃)₂PbI₄, nous avons déterminé expérimentalement les bandes de valence et de conduction et nous les avons comparées aux simulations de la fonction spectrale. Pour la pérovskite tridimensionnelle CH₃NH₃PbI₃, nous avons aussi déterminé les structures de bande expérimentale et simulée. Des signatures spectrales très larges ont été observées expérimentalement, ce qui relaxe les conditions de transition optique avec un impact éventuel sur l'efficacité des cellules solaires. Tant dans les expériences que dans les calculs, nous observons que le poids spectral suit une périodicité cubique alors que le système est structurellement dans une phase tétragonale. Cette contradiction apparente s'explique par la largeur spectrale des bandes, qui cache le repliement dû à la distorsion tétragonale. En ce qui concerne la dynamique de relaxation, nous avons observé que les porteurs photoexcités se thermalisent dans une échelle de temps subpicoseconde par couplage aux vibrations des cations organiques. À des échelles de temps plus longues (10~100 picosecondes), la diffusion électronique contrôle la dynamique. Cette dynamique est affectée par les défauts induits par recuit, qui localisent les électrons photoexcités pendant plus de 300 picosecondes. / The efficiency of the photovoltaic process depends on the electronic band structure of the active material and the charge carrier dynamics. In this thesis, we have studied how these issues are related to the atomic structure in materials for two different technologies of solar cells, namely silicon heterostructure solar cells, and hybrid organic-inorganic perovskite solar cells. In silicon heterostructure solar cells, we have analyzed the impact of defects on the electronic properties of amorphous silicon heterostructures (a-Si:H/a-SIC:H/c-Si) by core level and valence band spectroscopies. In particular, we have quantified the number of dangling bonds inside a-Si:H layer upon irradiation, we have identified the electronic states associated to them, and we have understood the transitions previously observed by photoluminescence. In perovskite solar cells, we have correlated the atomic structure, the electronic structure and the electronic dynamics for two- and three-dimensional hybrid organic-inorganic perovskites. We have used with this goal a whole panel of complementary techniques: X-ray diffraction, angle-resolved photoemission spectroscopy, inverse photoemission spectroscopy, and time-resolved two-photon photoemission. In the two-dimensional perovskite (C₆H₅C₂H₄NH₃)₂PbI₄, the valence and conduction bands have been determined experimentally and compared to spectral function simulations. In the three-dimensional perovskite CH₃NH₃PbI₃, we have again determined the band structure and simulated it. Very broad spectral features have been experimentally observed, which relax the optical transition conditions impacting in the solarcell efficiencies. In both experiments and calculations, we observe that the spectral weight follows a cubic periodicity while the system is structurally in the tetragonal phase. This apparent contradiction is explained by the band broadness, which hides the band folding of the tetragonal distortion. As for the relaxation dynamics, we have observed that the photoexcited carriers thermalize in a subpicosecond time scale through the coupling to organic cation vibrations. At longer timescales (10~100 picoseconds), the electron diffusion controls the dynamics. This dynamics is affected by the annealing-induced defects, which localize the photoexcited electrons for more than 300 picoseconds.
|
166 |
Interactive Prototyping of Interactions : from Throwaway Prototypes to Takeaway Prototyping / Prototypage interactif d'interactions : des prototypes jetables au prototypage recyclableLeiva, Germán 12 December 2018 (has links)
Le prototypage est une étape essentielle du processus de design. Pendant les premières phases du processus de conception, les designers utilisent le prototypage rapide pour explorer diverses idées. Les outils et techniques actuels de prototypage se concentrent en particulier sur des représentations papier et donc destinées à être jetées. Or, alors que ces prototypes jetables peuvent être créés rapidement, ils se prêtent mal au processus d'itération. Je propose donc de créer des outils de prototypage rapide qui puissent efficacement supporter la création d'artéfacts à la fois jetables et réutilisables pour esquisser de nouvelles interactions dans les premières phases du processus de design. La première partie porte sur le prototypage vidéo. Les designers font face à deux écueils majeurs à l'utilisation de la vidéo en design d'interaction: le temps nécessaire pour filmer et celui nécessaire pour éditer. J’ai développé VideoClipper pour aider le processus de création de vidéo. Cet outil intègre une méthode de design itérative qui encourage la planification et permet une vraie flexibilité pendant la création de prototypes. Je présente les résultats d'une étude utilisateur informelle de trois semaines avec des étudiants en design d'interaction. Les résultats suggèrent que les participants passent moins de temps à capturer et éditer avec VideoClipper qu'avec les autres outils vidéos. En revanche, ils trouvent parfois difficile de créer des stop-motions pour représenter des interactions continues et de re-filmer de nouveaux segments lorsque le design évolue. J'ai ensuite crée Montage, un outil de prototypage vidéo qui permet aux designers de progressivement augmenter leurs prototypes papier avec des maquettes numériques pour faciliter la création, la réutilisation et l'exploration d'interactions dynamiques. Montage utilise l'incrustation vidéo pour découpler l'interface du prototype de son contexte d'utilisation, permettant aux designers de les réutiliser ou de les modifier indépendamment. Je décris comment Montage améliore le prototypage vidéo en combinant la vidéo avec des maquettes numériques animées et encourage l'exploration d'autres contextes d'utilisation tout en permettant le prototypage de styles d'interaction différents. La deuxième partie porte sur l’implémentation de prototypes interactifs. Les designers et développeurs professionnels ont souvent du mal à effectuer la transition de la représentation du design à son implémentation concrète. Avec N. Maudet, j'ai mené trois études sur la conception et l'implémentation d'interactions non-conventionnelles pour comprendre l'écart entre les processus, les outils et les représentations des designers et des développeurs. Nous avons découvert que les pratiques actuelles entraînent des redondances entre le travail des designers et celui des développeurs et des divergences entre le design et son implémentation. Nous identifions trois types de problèmes: l'omission de détails critiques, l'ignorance des cas extrêmes et la non prise en compte des limitations techniques. Je propose quatre principes de design pour créer des outils qui limitent ces problèmes. Ces principes sont utilisés pour créer Enact, un environnement interactif de prototypage d'interactions tactiles. Les résultats de deux études suggèrent que Enact aide les participants à détecter plus de cas extrêmes, augmente la participation des designers et offre de nouvelles possibilités de co-création. Ces trois outils de prototypage reposent sur les mêmes principes théoriques sous-jacent: réification, polymorphisme, réutilisation et substrats d'information. De même, les outils présentés mettent en œuvre une approche du prototypage que je nomme “Takeaway Prototyping” ou prototypage recyclable. Par contraste avec les prototypes jetables, les outils pour le prototypage recyclable permettent le design par énaction et réifient des artefacts de conception pour matérialiser la progression du design. / Prototyping is essential in any design process. During the early stages, designers rely on rapid prototyping to explore ideas. Current rapid prototyping tools and techniques focus on paper representations and their disposability. However, while these throwaway prototypes are quick to create they are difficult to iterate over. I argue that rapid prototyping tools can effectively support reusable as well as throwaway artifacts for sketching interaction in early-stage design. First, I investigate tools in the context of video prototyping. Designers experience two main barriers to use video in interaction design: the time to capture and edit the video artifacts. To aid during the capturing-phase of video prototyping I created VideoClipper. This tool embodies an integrated iterative design method that rewards discipline but permits flexibility for video prototyping. The tool provides a storyboard-style overview to organize multiple videos in story Lines. VideoClipper offers editable and reusable TitleCards, video capture for steady-state and rough stop-motion filming and the ability to recombine videos in new ways for redesign. I present informal user studies with interaction design students using VideoClipper in three design courses. Results suggest that participants spend less time capturing and editing in VideoClipper than with other video tools. However, many designers find tedious to create stop-motion videos for continuous interactions and to re-shoot clips as the design evolves. Participants continuously try to reduce re-shooting by reusing backgrounds or mixing different levels of fidelity. Inspired by this behavior, I created Montage, a prototyping tool for video prototyping that lets designers progressively augment paper prototypes with digital sketches, facilitating the creation, reuse and exploration of dynamic interactions. Montage uses chroma keying to decouple the prototyped interface from its context of use, letting designers reuse or change them independently. I describe how Montage enhances video prototyping by combining video with digital animated sketches, encourages the exploration of different contexts of use, and supports prototyping of different interaction styles. Second, I investigate how early designs start being implemented into interactive prototypes. Professional designers and developers often struggle when transitioning from the illustration of the design to the actual implementation of the system. In collaboration with Nolwenn Maudet, I conducted three studies that focused on the design and implementation of custom interactions to understand the mismatches between designers' and developers' processes, tools and representations. We find that current practices induce unnecessary rework and cause discrepancies between design and implementation and we identify three recurring types of breakdowns: omitting critical details, ignoring edge cases, and disregarding technical limitations. I propose four design principles to create tools that mitigate these problems: Provide multiple viewpoints, maintain a single source of truth, reveal the invisible and support design by enaction. We apply these principles to create Enact, an interactive live environment for prototyping touch-based interactions. We introduce two studies to assess Enact and to compare designer-developer collaboration with Enact versus current tools. Results suggest that Enact helps participants detect more edge cases, increases designers' participation and provides new opportunities for co-creation. These three prototyping tools rely on the same underlying theoretical principles: reification, polymorphism, reuse, and information substrates. Also, the presented tools outline a new prototyping approach that I call "Takeaway Prototyping". In contrast to throwaway prototypes, instead of emphasizing disposability, tools for "Takeaway Prototyping" support design by enaction and reify design artifacts to materialize the lessons learned.
|
167 |
Technique et Méthodologie de Conception du Réseau de Distribution d'Alimentation d'une Carte Electronique Rapide à Haute Densité d'Interconnexion / Design Techniques and Methodology for Power Delivery Network of a High Speed High Sensity Electronic BoardGoral, Benoit 12 October 2017 (has links)
Les contraintes économiques actuelles amènent les entreprises d'électronique non seulement à innover à un rythme très soutenu mais aussi à réduire le cycle de conception des nouveaux produits. Afin de rester compétitives, ces entreprises doivent proposer régulièrement de nouveaux produits comportant de nouvelles fonctionnalités, ou améliorant les performances des produits de la génération précédente. Les progrès réalisés peuvent être quantifiés par exemple en terme de vitesse de fonctionnement, encombrement, autonomie et consommation d'énergie. La conception des cartes électroniques incluant ces contraintes est alors délicate. En effet, l'intégration de nouvelles fonctions tout comme la miniaturisation des produits entraînent une densification du circuit imprimé. Le nombre de couches utilisé augmente, l'isolement entre les signaux diminue, l'utilisation de circuits intégrés comportant différentes fonctions comme les SOC ou les SIP entraîne une multiplication du nombre de potentiels d'alimentation. L'augmentation des performances des systèmes impliquent une élévation du taux de débits de données circulant au sein du circuit imprimé et par conséquent l'augmentation des fréquences d'horloge et des signaux. Ces contraintes entraînent l'apparition de problèmes de compatibilité électromagnétique, d'intégrité du signal et d'intégrité de puissance. Il est alors nécessaire de limiter les risques de dysfonctionnement de la carte par une maîtrise des phénomènes qui se produisent d'une part par une analyse de dimensionnement précise afin d'éliminer ou de réduire les problèmes au plus tôt dans la phase de conception et d'autre part en effectuant des simulations de validation une fois la carte terminée. Cette thèse proposée par la société Thales Communications and Security en collaboration avec le laboratoire des Systèmes et Applications des Technologies de l'Information et de l’Énergie (SATIE) de l’École Normale Supérieure de Cachan dans le cadre d'une Convention Industrielle de Formation par la REcherche (CIFRE) a pour but le développement d'une méthodologie d'analyse et de conception du réseau du distribution d'énergie de cartes numériques complexes dans le but de garantir leur fonctionnement sans, ou en réduisant le nombre d'itérations de prototypage. L'introduction au contexte, une description du système étudié et des phénomènes physiques régissant son fonctionnement ainsi qu'un état de l'art des techniques d'analyse d'intégrité de puissance constituent le premier chapitre de ce mémoire. La présentation du véhicule de test, support de tous les résultats de mesure, conçu durant la deuxième année de thèse est l'objet du second chapitre. Ce chapitre dénombre et décrit l'ensemble des scenarii et des réalisations créés pour la mesure des phénomènes propres à l'intégrité de puissance et la corrélation de résultats de simulation avec ceux obtenus en mesure. Dans une troisième partie, les techniques de modélisations de chaque élément constituant le réseau de distribution d'énergie sont décrites. Afin de démontrer la validité des modèles utilisés, les résultats de simulation obtenus pour chaque élément ont été confrontés à des résultats de mesure. Le quatrième chapitre présente la méthodologie de conception et d'analyse de la stabilité des alimentations développée suite aux résultats obtenus des différentes techniques de modélisation. Les outils utilisés sont précisément décrits et les résultats de simulation confrontés à ceux de mesure du système complet du véhicule de test. Dans le chapitre 5, l'intérêt de la modélisation des réseaux de distribution d'énergie sera étendu aux études d'intégrité du signal en démontrant comment son inclusion aux simulations permet d'obtenir, lors de la mise en œuvre de co-simulations, des résultats de simulation plus proches de la réalité. Enfin, la dernière partie de ce document synthétise les travaux de la thèse, porte un regard critique et propose quelques perspectives de travaux futurs. / Today's economical context leads electronics and high-tech corporations not only to innovate with a sustained rhythm but also to reduce the design cycle of new products. In order to remain competitive, these corporations must release regularly new products with new functionalities or enhancing performances of the last generation of this product. The enhancement from one generation of the product to the other can be quantified by the speed of execution of a task, the package size or form factor, the battery life and power consumption.The design methodology following these constraints is thus very tough. Indeed, integration of new functionalities as miniaturization of products imply a densification of the printed circuit board. The number of layer in the stack up is increased, isolation between nets is reduced, the use of integrated circuits embedding different functions as SOC or SIP implies a multiplication of the number of voltages. Moreover the increase of circuit performances implies a increasing data rate exchanged between component of the same printed circuit board and occasioning a widening of the reference clock and signal frequency spectrum. These design constraints are the root cause of the apparition of electromagnetic compatibility, signal integrity and power integrity issues. Failure risks must then be limited by fully understanding phenomenon occurring on the board by, on one side, realizing a precise dimensioning pre layout analysis aiming the elimination or reduction of the issues at the beginning of the design cycle, and on the other side, validating the layout by post layout simulation once the printed circuit board routed.This study proposed by Thales Communication and Security in collaboration with public research laboratory SATIE (System and Application of Energy and Information Technologies) of Ecole Normale Supérieure de Cachan within a industrial convention for development through research aims to develop a design methodology for power delivery network of digital printed circuit board with the goal of ensuring good behavior without or by reducing the number of prototypes.The first chapter of this manuscript include an introduction to the context of the study, a precise description of the studied system and the physical phenomenon ruling its behavior, and finally a state of the art of the power integrity technique analysis. A presentation of the test vehicle, designed during the work and support of all measurement results will constitute the focus of second chapter. This chapter presents and describes all the scenarios and implementations created for the observation and measurement of Power Integrity phenomenon and realise measurement-simulation results correlation. In a third part, modeling techniques of each element of the Power Delivery Network are described. The validity of the models is proven by correlating simulation results of each element with measurement results. The fourth chapter presents the analysis and design methodology developed from the results of the different modeling techniques presented in the previous chapter. Simulation tools and their configuration are precisely described and simulation results are compared with measurement results obtained on the test vehicle for the whole system. In the fifth chapter, the interest of power delivery network model will be extended to signal integrity analysis demonstrating how including this model allows to obtain simulation results closer from measurement results by running Signal Integrity Power aware simulation. Finally, the last part of this document synthetizes the work realized and presented in this document, takes a critical look on it and proposes future works and orientations to extend knowledges and understanding of Power Integrity Phenomenon.
|
168 |
Développement d'un outil numérique pour la prévision de la fissuration d’une structure en béton de fibres sous impact. / Development of a numerical tool for predicting the cracking of a fibre reinforced concrete structure under impact.Akiki, Rana 06 December 2017 (has links)
Ce travail de recherche s'inscrit dans le cadre de la sécurité du transport et de manutention des colis de confinement de déchets nucléaires. Le but est de développer un outil numérique capable de simuler le comportement global d'une structure en béton de fibres soumise à des sollicitations dynamiques. Il permet également d'accéder à des informations plus locales telle que la fissuration, tant en terme de trajet que d'ouverture de fissures. Pour ce faire, un ensemble d'essais mécaniques est réalisé afin de mieux comprendre les mécanismes d'endommagement et de fissuration du matériau sous sollicitations quasi-statique et dynamique. Le modèle capable de capturer à l'échelle globale les non-linéarités liées à la fissuration de la structure dans un cadre continu est détaillé. Les paramètres associés à la loi de comportement sont identifiés via une procédure d'identification basée sur les données expérimentales des essais conduits. La détermination de l'énergie de fissuration en dynamique est investiguée et la part inertielle structurelle de celle-ci est soulignée. Deux méthodes de post-traitement numérique des résultats des simulations numériques globales permettant d'accéder à des informations plus fines à l'échelle locale, en termes de trajet et d'ouverture de fissure, sont détaillées. Une étude d'une poutre en béton fibré soumis à un chargement de flexion 1-point dynamique post-traitée avec les deux approches est présentée. Les résultats du post-traitement numérique sont comparés à ceux obtenus expérimentalement par corrélation d'images numériques. / The research work falls within the framework of the transportation and handling safety of radioactive waste containment packages. The goal is to develop a numerical tool capable of simulating the overall behaviour of a fiber concrete structure subject to a dynamic loading. It also gives access to more local information such as cracking, both in terms of path and opening. To do this, a set of mechanical tests is carried out in order to better understand the mechanisms of damage and cracking of the material under quasi-static and dynamic loading. The model capable of capturing on a global scale the non-linearities related to the cracking of the structure in a continuous framework is detailed. The parameters associated with the material constitutive law are identified via an identification procedure based on the experimental data of the conducted tests. The determination of dynamic cracking energy is investigated and the structural inertial part of this is underlined. Two numerical methods used to post-process the results of the global numerical simulations, giving access to finer information at the local scale, in terms of path and crack opening, are detailed. The study of a fiber-reinforced concrete beam subjected to a dynamic 1-point bending loading, post-processed with the two approaches, is presented. The results of the numerical post-processing are compared with those obtained experimentally by correlation of digital images.
|
169 |
Assimilation de données et modélisation stochastique dans la réanalyse des données géomagnétiques satellitaires / Data assimilation and stochastic modeling in geomagnetic satellite data reanalysBarrois, Olivier 12 October 2017 (has links)
Cette thèse, intitulée "Assimilation de données et modélisation stochastique dans la réanalyse des données géomagnétiques satellitaires", propose de retrouver des informations sur l'état du noyau terrestre à la frontière noyau-manteau, en combinant, d'une part, des contraintes spatiales issues de modélisations numériques directes, et d'autre part, des informations temporelles provenant d'équations stochastiques.Cet objectif est réalisé grâce à l'utilisation de méthodes inverses, et à la construction d'un algorithme d'assimilation de données à état augmenté.L'algorithme répond à la double volonté d'être flexible, c'est-à-dire de pouvoir intégrer plusieurs sources de données ou d'informations, et simple d'utilisation, c'est-à-dire d'être peu coûteux en temps de calcul et facilement modifiable.Ce travail s'inscrit dans la continuité des études menées par la communauté en assimilation de données géomagnétiques, ainsi que dans l'opportunité d'utiliser les dernières données satellitaires provenant de la récente mission Swarm (2014-....).Il a été effectué en collaboration avec Julien Aubert (IPGP), qui a fourni les contraintes spatiales issues du modèle Coupled-Earth, ainsi qu'avec Christopher C. Finlay (DTU) et Magnus Hammer (DTU), qui ont fourni les données satellitaires et d'observatoires au sol.Les principaux aboutissements de cette thèse sont la conception d'un algorithme simple et fonctionnel, validé lors d'expériences jumelles synthétiques (publié), et appliqué tout d'abord aux coefficients de Gauss d'un modèle géomagnétique, avant d'être étendu vers les données satellitaires des missions CHAMP et Swarm.Mon algorithme est capable de retrouver de l'information sur les quantités mesurées du noyau mais également sur des quantités non-observées telles que les écoulements du fer liquide ou la diffusion magnétique.Ce travail amène également à la production d'un modèle de champ magnétique et de champ de vitesse à la frontière noyau-manteau qui n'est pas classiquement régularisé.Ce modèle géomagnétique montre des résultats globalement similaires au modèle de référence CHAOS-6, et est cohérent avec les autres travaux de la communauté.Ainsi, les cartes de champ magnétique et de vitesse obtenues à la surface du noyau attestent que le champ magnétique est majoritairement dirigé par l'advection, et confirment la présence persistante d'un gyre équatorial associé avec un hémisphère Pacifique plus calme mais plus dynamique pour le champ de vitesse.La diffusion magnétique retrouvée est concentrée sous l'Indonésie et l'Océan Indien.Fondamentalement, ma thèse démontre l'importance de la prise en compte des erreurs de modélisation dans l'assimilation de données géomagnétiques, avec l'apparition de biais importants et une sous-estimation des erreurs a posteriori lorsque ces erreurs sont négligées.Finalement, le travail présenté tout au long de ce manuscrit restant préliminaire, il ouvre la voie vers une utilisation accrue des mesures géomagnétiques, avec notamment la future publication d'un code libre qui permettra la comparaison systématique des résultats obtenus avec ceux de la communauté. / This thesis, entitled {sc Data Assimilation and Stochastic Modelling in Geomagnetic Satellite Data Reanalysis}, intends to retrieve information on the state of the Earth's core at the Core-Mantle-Boundary, by combining, first, spatial constraints coming from direct numerical simulations, and second, temporal information coming from stochastic equations.This purpose is achieved through inverse methods and a data assimilation augmented state algorithm.The proposed algorithm is designed to be flexible, textit{i.e.} able to integrate several types of data or constraints, and to be simple, textit{i.e.} with low computation time and easy to modify.This work fits in with the other studies on the geomagnetic data assimilation of the community, and with the opportunity to use the last satellite data from Swarm spacecraft (2014-....).We have worked in collaboration with Julien Aubert (IPGP), who has provided the spatial constraints from Coupled-Earth dynamo, and with Christopher C. Finlay (DTU) and Magnus Hammer (DTU), who have provided the satellites and ground observatories data.The major outcomes of this thesis are the design of a functional algorithm, validated through synthetic twin experiments (published), and applied, first, to the Gauss coefficients of a geomagnetic model, and second, to the measures of the CHAMP and Swarm missions.My algorithm is able to retrieve information, not only on the measured quantities, but also on the unobserved quantities like the core flows or the magnetic diffusion.This work has led to the production of a magnetic field and core flows model at the core surface which is not classically regularized.The geomagnetic field model shows results that are globally similar to the CHAOS-6 reference field model, and that are coherent with the other studies of the community.Thus, the maps of the magnetic field and the velocity field obtained, confirm that the dipole decay is principally driven by advection, and display the persistent presence of the Atlantic gyre associated with a Pacific hemisphere less energetic.The inverted magnetic diffusion is concentrated under Indonesia and Indian Ocean.Fundamentally, my thesis demonstrate the importance of taking into account the modelling errors in the geomagnetic data assimilation, which leads to strong biases and an underestimation of the textit{a posteriori} errors when those errors are neglected.Finally, the work presented in this manuscript is preliminary, and it paves the way toward an increased use of the satellite data, with in particular, the free release of my code in order to compared the results with the ones obtained by the community.
|
170 |
Standardisation et validation de techniques luminométriques pour évaluer la propreté des équipements d'alimentation des veaux en pré-sevrageChancy, Anaïs 08 1900 (has links)
La contamination des équipements d’alimentation des veaux en pré-sevrage est une préoccupation de santé importante dans l’industrie laitière, et peut être associée à une augmentation des taux de morbidité et de mortalité. Les producteurs laitiers et intervenants ont donc besoin d’un outil pratique, rapide et fiable pour évaluer la propreté des équipements, compte tenu que l’évaluation visuelle seule est insuffisante. Les objectifs de cette étude sont de développer une méthode standardisée pour évaluer la propreté de plusieurs équipements grâce à la luminométrie, d’estimer la prévalence de contamination et décrire les pratiques de gestion recommandées pour le nettoyage. Un total de 7 troupeaux laitiers du Québec a été choisi par convenance. Après l’évaluation visuelle de l’hygiène, la propreté des équipements a été évaluée par écouvillonnage direct pour les seaux et les tétines avec des écouvillons Hygiena UltraSnap®. Une technique de rinçage a été utilisée pour les tubes à gaver, les biberons et les distributrices automatiques de lait (AMF) avec des écouvillons UltraSnap®, AquaSnap® et MicroSnap®. Pour valider la technique d’écouvillonnage direct des seaux, une étape avec le même opérateur et entre plusieurs opérateurs a été réalisée, ainsi qu’une culture bactérienne conventionnelle. Au total, 519 écouvillons ont été prélevés sur 201 équipements. La contamination médiane (intervalle interquartile) en RLU pour le biberon, le tube à gaver, l’AMF, le seau et la tétine est de 2 (1;6), 2 (0;12), 52 (19;269), 886 (128;7,230) et 899 (142;6 928), respectivement. La technique d’écouvillonnage direct, qui consiste à écouvillonner directement la surface d’un équipement, a montré une excellente corrélation pour la fidélité intra-opérateur (corrélation intra-classe (ICC) = 0,93; IC95%: 0,88-0,96). La fidélité inter-opérateur (2 sessions avec 3 opérateurs différents) a montré une corrélation élevée (ICC = 0,88; IC95%: 0,78-0,94 pour la 1ère session et ICC = 0,89; IC95%: 0,79-0,95 pour la 2e). Le score visuel (qui grade de 1 à 4 la propreté des équipements selon la quantité de matières organiques) des tubes à gaver, de l’AMF et des seaux a été positivement associé aux valeurs du luminomètre. Une corrélation positive entre la culture bactérienne et l’écouvillonnage direct des seaux a été trouvée pour l’UltraSnap (rho de Spearman (rs) = 0,653; IC95%: 0,283-0,873; P = 0,0003) et le MicroSnap (rs = 0,569; IC95%: 0,309-0,765; P = 0,002). Cette étude décrit une technique standardisée d’écouvillonnage à la ferme pour évaluer le statut hygiénique des équipements par luminométrie, qui peut être intégrée dans la gestion des problèmes de santé des veaux laitiers en pré-sevrage. / The contamination of equipment used to feed pre-weaned calves is an important health issue for the dairy industry, which can be associated with increased morbidity and mortality rates. Therefore, dairy producers and consultants need a practical, quick, and reliable tool to assess equipment cleanliness, since visual assessment alone is insufficient. The objectives of this cross-sectional study are to develop a standardized robust method to evaluate the cleanliness of several types of feeding equipment on-farm by using luminometry, with special emphasis on a direct swabbing technique to sample buckets, and to estimate the prevalence of contamination and the recommended management practices for cleaning and describing equipment. A total of 7 Quebec commercial dairy herds were selected conveniently. Following visual hygiene scoring, the cleanliness of available piece of feeding equipment was assessed using direct surface swabbing for buckets and nipples with Hygiena Ultra-Snap® swabs. A liquid rinsing technique was used for esophageal feeders, bottles, and automatic milk feeders (AMF) with UltraSnap®, AquaSnap®, and MicroSnap® swabs. To validate the direct swabbing technique of buckets, a comparison within and between operators was realized, as well as a conventional bacterial culture. A total of 519 swab samples were obtained from 201 pieces of equipment. The median (interquartile range) contamination in RLU for a bottle, esophageal feeder, AMF, bucket and nipple was 2 (1;6), 2 (0;12), 52 (19;269), 886 (128;7,230) and 899 (142;6,928), respectively. The direct swabbing technique, which consists in swabbing directly the surface of an equipment, showed an excellent correlation for inter-rater reliability (intraclass correlation (ICC) = 0.93; 95%CI: 0.88–0.96). The inter-operator (2 sessions with 3 different operators) reliability showed high correlation (ICC = 0.88; 95%CI: 0.78–0.94 for the 1st session, and ICC = 0.89; 95%CI: 0.79–0.95 for the 2nd session). The visual score (who ranks equipment cleanliness from 1 to 4 according to the quantity of organic matter) of esophageal feeders, AMF and buckets was positively associated with luminometer values. A positive correlation between bacterial culture and direct swabbing of buckets was found for the UltraSnap (Spearman’s rho (rs) = 0.653; 95%CI: 0.283–0.873; P = 0.0003) and MicroSnap (rs = 0.569, 95%CI: 0.309–0.765; P = 0.002). This study describes a standardized and practical on-farm swabbing technique for assessing the hygienic status of feeding equipment by luminometry, which can be integrated in the investigation of preweaning dairy calves’ health problems.
|
Page generated in 0.0433 seconds