• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 73
  • 20
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 299
  • 125
  • 102
  • 76
  • 46
  • 44
  • 37
  • 36
  • 35
  • 29
  • 26
  • 24
  • 24
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Experimental and numerical investigation of fuel flexibility and pollutant emissions in novel combustion technologies using renewable synthetic fuels

Ferrarotti, Marco 07 September 2020 (has links) (PDF)
By 2050, Europe needs to have drastically decoupled its economic growth from its emissions of CO2. This is a direct response to the compelling evidence from the increasing risks of climate change brought about by the anthropogenic Greenhouse Gas (GHG) emissions and pollutant emissions (NOx). A replacement of significant percent of fossil fuels with renewable energy sources will be needed. However, energy production from most renewable energy sources, is typically intermittent and unpredictable. This requires a reliable mid-long term energy storage to synchronize production and demand. The Power-to-Fuel option or chemical storage can be the key for a sustainable energy system. Indeed, converting the excess of renewable energy into second generation fuels will unlock a long-term and high-density energy storage, ensuring also a reduction of the carbon footprint. These ”green” non-conventional fuels are blends of CH4, H2, CO and NH3. However, to achieve Power-to fuel, the development of an efficient combustion technology, coupled with virtually zero pollutant emissions, stable working conditions with different load and fuel and significant energy saving is required. In the last years, a so-called MILD or flameless combustion has drawn attention for its ability of meeting the mentioned targets. However, the studies available in literature are conducted on Jet in hot co-flow-like systems or they face conventional fuels, such as natural gas or methane. The examples using non-conventional fuels are scarce and limited to few operating conditions. In this framework, this PhD thesis focuses on a threefold aspect. Experimental campaigns investigated fuel flexibility of flameless combustion in the ULB furnace. A progressive addition of hydrogen in methane enhanced combustion features, reducing the ignition delay time and increasing the reactivity of the system, possibly losing its flameless behavior. Indeed, a threshold of 25% H2 was defined for reaching flameless/MILD conditions, characterized by still low pollutant emissions and temperature peak. This is in line with the goal of introducing “green” hydrogen into the natural gas pipeline (up to 20%) to reduce CO2 emissions. Further experimental campaigns tested the role of the injection geometry (varying the air injector ID) and fuel lance length to reduce NO emissions and retrieve flameless/MILD conditions for high hydrogen content. Finally, ammonia/hydrogen blends were tested. Results suggests that stoichiometry has a major impact on NO emissions. An optimal window, minimizing both NO and NH3-slip emissions was defined using an equivalence ratio of 0.9. To qualitatively describe the observed trends, a simplified reactors network was considered. The analysis highlighted the most important reactions correlated to NO formation and the reason of the NO reduction at stoichiometry condition. On the other side an affordable and reliable numerical model was optimized and tested in the Adelaide Jet in Hot Co-flow burner. The latter is a simplified burner capable of mimicking MILD combustion conditions. A set of RANS simulations were run using the Partially Stirred Reactor (PaSR) approach, investigating different mixing model formulations: a static, a fractal-based and a dynamic formulation, based on the resolution of transport equations for scalar variance and dissipation rate. A study about the role of combustion models and kinetic mechanisms on the prediction of NO formation was also conducted. Finally, an analysis of the choice of a Heat Release Rate (HRR) marker for MILD (HM1 flame) and not MILD (HM3 flame) conditions was carried out. Once having awareness of the capability of the proposed numerical model, simulations were conducted to define the key aspects in simulating a flameless furnace, varying the composition of the fuel, considering methane/hydrogen and ammonia/hydrogen blends. In particular, for the latter case, existing kinetic schemes showed a major over-estimation of NO emissions, reason why an optimization study was conducted in a simplified reactor (well stirred reactor) using a Latin Hypercube Sampling. Finally, the first-of-its-kind digital twin based on CFD simulations for a furnace operating in flameless combustion conditions was created. A reduced- order model (ROM) based on the combination of Proper Orthogonal Decomposition (POD) and Kriging was developed for the prediction of spatial fields (i.e. temperature) as well as pollutant in the exhausts. / D’ici 2050, l’Europe devra découpler sa croissance économique de ses émissions de CO2. Il s’agit d’une réponse nécessaire au changement climatique et à la pollution de l’air induits par les émissions atmosphérique de gaz à effet de serre (GES) et de polluants (NOx). Un remplacement d’un pourcentage significatif des combustibles fossiles par des sources d’énergie renouvelables sera nécessaire. Cependant, la production d’énergie à partir des sources renouvelables est généralement intermittente et imprévisible. Cela nécessite un stockage d’énergie fiable à moyen et long terme, pour synchroniser la production et la demande d’énergie. L’option Power-to-Fuel, ou stockage chimique, peut être la clé d’un système énergétique durable. En effet, la conversion de l’excès d’énergie renouvelable en carburants de deuxième génération permettra de débloquer un stockage d’énergie à long terme et à haute densité, en assurant également une réduction de l’empreinte carbone. Ces carburants non conventionnels « verts » sont des mélanges de CH4, H2, CO et NH3. Cependant, pour exploiter le potentiel du Power-to-Fuel, il est nécessaire de développer une technologie de combustion efficace, avec des émissions de polluants pratiquement nulles, assurant des conditions de travail stables avec une charge et des carburants différents et des économies d’énergie significatives. Au cours des dernières années, une combustion dite « MILD », ou sans flamme, a attiré l’attention pour sa capacité à atteindre les objectifs mentionnés. Cependant, les études disponibles dans la littérature sont menées sur des systèmes de laboratoire (jet in hot co-flow) et avec des carburants conventionnels comme le gaz naturel ou le méthane. Les exemples utilisant des carburants non conventionnels sont rares et limités à quelques conditions de fonctionnement.Dans ce cadre, cette thèse de doctorat se concentre sur un triple aspect.Des campagnes expérimentales ont étudié la flexibilité du combustible dans un four sans flamme installé à l'ULB. L’ajout progressif d’hydrogène dans le méthane permet d’améliorer les caractéristiques de combustion, en réduisant le délai d’allumage et augmentant la réactivité du système, ce qui, par contre, cause un éloignement du système des conditions sans flamme. En effet, un seuil supérieur de 25% H2 a été identifié pour les mélanges méthane/hydrogène, pour travailler dans des conditions sans flammes (MILD), caractérisées par une faible augmentation de température et des émissions de polluants amoindries .Cela est conforme à l’objectif d’introduire de l’hydrogène « vert » dans le gazoduc (jusqu’à 20%) afin de réduire les émissions de CO2. D’autres campagnes expérimentales se sont focalisées sur le rôle de la géométrie d’injection (variation du diamètre de l’injecteur d’air) et de la longueur de la lance du carburant pour réduire les émissions des oxydes d’azote et récupérer les conditions sans flamme/MILD pour une teneur élevée en hydrogène. Enfin, des mélanges ammoniac/hydrogène ont été testés. Les résultats suggèrent que la stœchiométrie a un impact majeur sur les émissions d’oxydes d’azote. Une fenêtre optimale minimisant les émissions de NO et d’ammoniac imbrulées a été définie en utilisant un rapport d'équivalence de 0,9. Pour tracer qualitativement les tendances observées, un réseau de réacteurs simplifié a été construit. L’analyse a mis en évidence les réactions les plus importantes pour la formation des NOx et elle a permis de justifier la réduction des oxydes d’azote à l’état stœchiométrique.De l’autre côté, un modèle numérique robuste et fiable a été optimisé et testé pour le brûleur Jet in Hot Co-flow de l’Université d’Adelaide. Ce dernier est un brûleur simplifié capable de simuler les conditions de combustion MILD/sans flamme. Un ensemble de simulations RANS ont été effectuées à l’aide de l’approche du réacteur partiellement agité (Partially Stirred Reactor – PaSR - en anglais), en examinant les différentes formulations de modèles de mélange :une formulation statique, fractale et dynamique, basée sur la résolution des équations de transfert pour la variance scalaire et le taux de dissipation. Une étude sur le rôle des modèles de combustion et des mécanismes cinétiques dans la prédiction de la formation des oxydes d’azote a également été réalisée. Enfin, une analyse sur le choix d’un marqueur de taux de dégagement de chaleur (Heat Release Rate – HRR – en anglais) pour les conditions MILD et non MILD a été réalisée. Après validation, les modèles développés ont été utilisés pour définir les aspects clés de la simulation d’un four sans flamme, en variant la composition du combustible, pour des mélanges méthane/hydrogène et ammoniac/hydrogène. En particulier, pour ce dernier cas, les schémas cinétiques existants ont montré une surestimation importante des émissions d’oxydes d’azote, raison pour laquelle une étude d’optimisation a été menée dans un réacteur simplifié.Enfin, le premier jumeau numérique en son genre, basé sur des Simulations numériques de Dynamique de Fluides (CFD – Computational Fluid Dynamics en anglais) pour un four fonctionnant dans des conditions de combustion sans flamme, a été créé. Un modèle à ordre réduit (ROM – Reduced Order Model en anglais) basé sur la combinaison de la Décomposition Orthogonale aux valeurs Propres (POD) et du Kriging a été développé pour la prédiction des variables d’intérêt (température et espèces chimiques majeures) ainsi que des polluants dans les fumées. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
122

Modélisation et optimisation d'un mur solaire avec vitrage dans un bâtiment résidentiel

Do, Mai Thi 19 April 2018 (has links)
L'efficacité énergétique des bâtiments occupe une place de plus en plus importante dans la société. Afin de réduire la consommation énergétique des bâtiments, le mur solaire avec vitrage a été élaboré. Ce système est composé d'un vitrage placé devant un mur massif d'une grande absorptivité créant une cavité entre les deux. Le présent travail est divisé en deux parties revoyant chacune à un article scientifique. L'objectif principal de cette étude sera d'optimiser le mur solaire avec vitrage, afin de minimiser la charge de chauffage et de climatisation dans un bâtiment. Pour atteindre cet objectif, un modèle numérique a été réalisé dans le logiciel MATLAB™ permettant de simuler le comportement thermique du système et de déterminer la charge de chauffage et de climatisation requise pour maintenir les conditions intérieures confortables dans un bâtiment résidentiel. Le modèle numérique est validé grâce à des logiciels de simulation de bâtiments et des résultats obtenus dans un article scientifique. Une fois le modèle validé, des études paramétriques ont été faites afin d'étudier l'influence de différents paramètres du système sur la performance de celui-ci et de trouver les valeurs optimales. L'étude considère une période d'un an et utilise des données météorologiques pour la ville de Québec (Canada). Une optimisation des paramètres géométriques à l'aide de routines d'optimisation de MATLAB™ a été faite. Un design optimal du mur solaire avec vitrage est également proposé.
123

Caractérisation du pergélisol : application d'une nouvelle méthode afin d'estimer la conductivité thermique à l'aide de la tomodensitométrie

Ducharme, Marc-André 24 April 2018 (has links)
La construction dans l'Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l'utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol. / When building in the Arctic, design considerations require precise knowledge of the thermal and geotechnical properties of the permafrost. Computed tomography provides visualization of the cryostructure of permafrost. Previous studies showed great potential in using this technology for classification and volume measurements of permafrost components, i.e. sediment (solid), ice and gas (void) contents. The aims of this study are (1) to develop an innovative and non-destructive approach using CT scan to compute the thermal conductivity of undisturbed permafrost samples and (2) to validate the results computed from CT scan image analysis with proven experimental thermal conductivity data. The very good results obtained so far show that CT scan thermal conductivity measurements yield results comparable to other existing methods. The new approach could still be significantly improved by the use of a higher resolution CT scanner.
124

Étude exploratoire sur le rôle que pourraient jouer les modes d'évaluation éthique dans la variabilité des décisions des différents comités d'éthique locaux et nationaux

Parent, Monelle 23 April 2018 (has links)
Le 20e siècle a été le témoin de multiples événements dont l’apparition du phénomène technoscientifique, qui se caractérise notamment par le développement de nouvelles technologies (ce terme prenant ici un sens particulier propre à la conception technoscientifique) et de nouvelles pratiques en recherche. Le développement et l’intégration des nouvelles technologies dans la société et l’évolution des pratiques en recherche vont soulever de multiples enjeux éthiques, ce qui va amener les sociétés à mettre en place des mécanismes et des politiques visant à encadrer ces pratiques. C’est ainsi que l’on voit apparaître, au cours du 20e siècle, deux types de comités devant procéder respectivement à l’évaluation éthique de la recherche (les comités d’éthique de la recherche) et à l’évaluation éthique des nouvelles technologies (les comités nationaux d’éthique). Cependant, on constate une importante variabilité dans les décisions rendues par les comités mis en place pour évaluer l’acceptabilité éthique de la recherche (CÉR) et par les comités mis en place pour évaluer l’acceptabilité éthique des nouvelles technologies (Comités nationaux d’éthique). Le groupe de recherche Biosophia et le groupe de recherche InterNE³LS – dans lesquels notre doctorat s’inscrit – ont effectué des recherches visant à éclairer la variabilité des décisions rendues par ces comités; toutefois, l’incidence des modes d’évaluation sur la variabilité des décisions n’avait pas été explorée dans une perspective philosophique. C’est pourquoi nous nous sommes donné comme objectif général de mener une étude exploratoire sur le rôle que pourraient jouer les modes d’évaluation éthique dans la variabilité des décisions des différents comités d’éthique locaux et nationaux. Une analyse sociohistorique des conditions d’émergence des dispositifs d’évaluation éthique au 20e siècle permet de constater l’importance du rôle joué par les philosophes lors de la mise en place de ces mécanismes d’évaluation éthique. On s’attendrait donc à retrouver cette présence de la philosophie dans les activités et dans les échanges des acteurs en éthique de la recherche et en évaluation des technologies; il devient ainsi pertinent de se demander dans quelle mesure la variabilité des approches philosophiques mobilisées lors des évaluations éthiques pourrait éclairer la variabilité des décisions rendues par les comités dont le mandat est de procéder à ces évaluations. À cette fin, nous avons élaboré un cadre de référence en philosophie à partir de la documentation portant sur les comités d’éthique de la recherche et sur les comités nationaux d’éthique afin de vérifier dans quelle mesure les approches relevées dans la littérature étaient mobilisées par les comités lors de leurs évaluations éthiques. Pour le volet relatif aux comités locaux d’éthique, nous avons procédé à l’analyse de décisions rendues par des CÉR dans le cadre de la recherche réalisée en 2003-2004 par le groupe Biosophia et nous avons analysé les propos des participantes et des participants à quatre Journées d’étude des comités d’étude de la recherche organisées par le Ministère de la santé et des services sociaux du Québec. En ce qui a trait aux comités nationaux d’éthique, nous avons procédé à l’analyse d’avis rendus par la Commission de l’éthique de la science et de la technologie (Québec) et à l’analyse d’avis rendus par le Comité consultatif national d’éthique (France). Notre recherche a permis de mettre en lumière une importante variabilité au niveau des approches mobilisées par les comités nationaux d’éthique lors de leurs évaluations des nouvelles technologies mais également le peu de contenu en ce qui a trait à la justification éthique des décisions dans le cas des comités d’éthique de la recherche. Ainsi l’analyse des réponses apportées par les CÉR participants lors de la recherche de Biosophia quant aux motifs à la base de leurs décisions d’approuver ou de refuser un projet de recherche ne nous ont pas permis de procéder à une analyse permettant d’identifier les approches mobilisées, en raison de l’absence de justifications éthiques. D’autre part, l’analyse des propos tenus par les participants aux Journées d’étude des CÉR nous a permis de repérer la présence de contenu philosophique ayant une incidence sur la variabilité des décisions, ce qui soulève un questionnement sur le rôle effectif de la philosophie dans le travail des comités d’évaluation éthique, compte tenu de l’écart observé entre le discours des acteurs et les motifs à la base des décisions rendues par les comités d’évaluation éthique. Mots-clés : comités d’éthique, éthique de la recherche, évaluation éthique, éthique appliquée, philosophie, variabilité des décisions.
125

Analyse théorique et numérique des conditions de glissement pour les fluides et les solides par la méthode de pénalisation

Dione, Ibrahima 19 April 2018 (has links)
Nous nous intéressons aux équations classiques de Stokes et de l’élasticité linéaire stationnaires, posées dans un domaine [symbol] de frontière [symbol] courbe et régulière, associées à des conditions de glissement et de contact idéal, respectivement. L’approximation par éléments finis de tels problèmes est délicate en raison d’un paradoxe de type Babuška-Sapondžyan : les solutions dans des domaines polygonaux approchant le domaine à frontière courbe et régulière ne convergent pas vers la solution dans le domaine limite. L’objectif de cette thèse est d’explorer l’application de la méthode de pénalisation à ces conditions de glissement dans le but, notamment, de remédier à ce paradoxe. C’est une méthode classique et très répandue en pratique, car elle permet de travailler dans des espaces sans contraintes et d’éviter par exemple l’ajout de nouvelles inconnues comme dans la méthode des multiplicateurs de Lagrange. La première partie de cette thèse est consacrée à l’étude numérique en 2D de différents choix d’éléments finis et, surtout, de différents choix de l’approximation de la normale au bord du domaine. Avec la normale (discontinue) aux domaines polygonaux [symbol] engendrés avec les maillages de [symbol], les solutions par éléments finis ne semblent pas converger vers la solution exacte. En revanche, si on utilise des régularisations de la normale, des éléments finis isoparamétriques de degré 2 en vitesse (déplacement pour l’élasticité) ou une sous-intégration du terme de pénalisation, on observe une convergence, avec des taux optimaux dans certains cas. Dans une seconde partie, nous faisons une analyse théorique (en dimensions 2 et 3) de la convergence. Les estimations a priori obtenues permettent de dire que même avec la normale discontinue aux domaines polygonaux, l’approximation par éléments finis converge vers la solution exacte si le paramètre de pénalisation est choisi convenablement en fonction de la taille des éléments, démontrant ainsi que le paradoxe peut être évité avec la méthode de pénalisation. / We are interested in the classical stationary Stokes and linear elasticity equations posed in a bounded domain [symbol] with a curved and smooth boundary [symbol], associated with slip and ideal contact boundary conditions, respectively. The finite element approximation of such problems can present difficulties because of a Babuška-Sapondžyan’s like paradox: solutions in polygonal domains approaching the smooth domain do not converge to the solution in the limit domain. The objective of this thesis is to explore the application of the penalty method to these slip boundary conditions, in particular in order to overcome this paradox. The penalty method is a classic method widely used in practice because it allows to work in functional spaces without constraints and avoids adding new unknowns like with the Lagrange multiplier method. The first part of this thesis is devoted to the 2D numerical study of different finite elements choices and, most importantly, of different choices of the approximation of the normal vector to the boundary of the domain. With the (discontinuous) normal vector to polygonal domains [symbol] generated with the meshing of [symbol], the finite element solutions do not seem to converge to the exact solution. However, if we use a (continuous) regularization of the normal, isoparametric finite elements of degree 2 for the velocity (or the displacement for elasticity) or a reduced integration of the penalty term, convergence is obtained, with optimal rates in some cases. In a second part, we make a theoretical analysis (in dimensions 2 and 3) of the convergence. The a priori estimates obtained allow to say that even with the (discontinuous) normal vector to polygonal domains, the finite element approximation converges to the exact solution when the penalty parameter is selected appropriately in terms of the size of the elements, showing that the paradox can be circumvented with the penalty method.
126

L'historien et le milieu : réflexions sur l'application de l'histoire : la publication d'une synthèse historique sur le Témiscamingue

Riopel, Marc 25 April 2018 (has links)
Cette thèse de doctorat présente une réflexion épistémologique et méthodologique sur l'application de l'histoire afin de combler un important vide de cette historiographie. Nous voulons vérifier s'il est possible pour un historien de collaborer avec le milieu de la diffusion de l'histoire pour produire une synthèse historique scientifique s'adressant au grand public. Cela amène une interrogation complémentaire : en quoi consiste l'application de l'histoire? Le mouvement de la Public History américaine constitue le point de départ de notre analyse des relations entre l'historien et le milieu. Nous retraçons en premier lieu l'évolution générale de la pratique de l'histoire locale et régionale dans quatre pays occidentaux, l'Angleterre, la France, les États-Unis et le Canada, et traitons notamment des différentes approches utilisées par les historiens dans la reconstitution de l'histoire régionale. Trois types d'approche ressortent de l'évolution de la discipline historique : l'intégration du milieu mise de l'avant par les historiens amateurs; la séparation pratiquée traditionnellement par les universitaires; et la participation prônée par les Publics Historians et reprise dans cette thèse. Nous élaborons ensuite un essai d'épistémologie de l'application de l'histoire. Il s'ouvre par la présentation du contexte de fondation de ce mouvement et une discussion de ses principaux concepts. Nous présentons par la suite notre approche pour réaliser un projet d'histoire avec la participation du milieu, le partage de l'autorité intellectuelle entre l'historien et les membres du comité de lecture provenant du milieu de la diffusion de l'histoire du Témiscamingue. Cela nous amène à discuter des questions d'éthiques reliées à cette pratique ainsi qu'à présenter notre stratégie de rédaction en fonction du grand public. Finalement, nous présentons une application de ces principes théoriques, méthodologiques et éthiques. Après la description du contenu et de l'originalité de la synthèse, nous analysons l'interaction avec les membres du comité de lecture lors de sa construction. Leur rôle se situe principalement sur le plan de l'intelligibilité du texte pour le grand public. Ces considérations conduisent à l'examen des besoins du public en matière d'histoire. La synthèse sur l'histoire du Témiscamingue se trouve en annexe à titre d'exemple de la stratégie de rédaction proposée dans notre thèse. / Québec Université Laval, Bibliothèque 2014
127

Simulation numérique de profils sismiques verticaux : application aux mesures d'atténuation

Dietrich, Michel 13 June 1983 (has links) (PDF)
L'enregistrement, à l'intérieur d'un puits de forage, du champ d'ondes élastiques généré par une source sismique permet d'étudier en détail, suivant la profondeur et suivant Ie temps, la formation et la propagation des différentes ondes qui constituent l'information sismique enregistrée en surface. On présente une simulation numérique de la technique des profils sismiques verticaux. Les sismogrammes synthétiques sont calculés par la méthode des nombres d'ondes discrets pour des milieux à stratification plane, et les champs d'ondes sont produits par une force ponctuelle verticale appliquée en surface ou une source ponctuelle explosive placée à faible profondeur. Les effets de l'atténuation et de la dispersion sont pris en compte dans les solutions. Les calculs réalisés à la fois dans les cas acoustique et élastique montrent toute la complexité de la propagation des ondes, et mettent en évidence l'importance des ondes transversales et converties en profondeur. On s'intéresse, dans une seconde partie, aux mesures d 'atténuation des ondes sismiques réalisées à partir de profils verticaux. On montre que les déterminations d'atténuation, obtenues par la méthode du rapport spectral réduit, sont fortement influencées par la stratigraphie locale au voisinage des récepteurs. Pour éliminer les effets de la stratification du milieu, on étudie une déconvolution de la structure en vitesse et en densité, avant d'introduire une nouvelle méthode d'inversion des facteurs de qualité pour des milieux finement stratifiés à une dimension. Cette méthode repose sur un processus itératif, et amène un gain appréciable dans la résolution en profondeur de la détermination de l'atténuation intrinsèque des roches.
128

L'industrialisation du bâtiment : le cas de la préfabrication dans la construction scolaire en France (1951-1973)

Resendiz-Vazquez, Aleyda 13 July 2010 (has links) (PDF)
La thèse porte sur le rapport entre industrialisation du bâtiment et préfabrication dans la construction scolaire en France. Cette relation suggère de comprendre les interactions de la pensée technique et de la politique publique avec l'organisation des processus de production. La période d'étude s'étend de 1951, premier témoin d'une politique industrialiste des plans d'équipement scolaire, à 1973 année de remise en cause de ce type de construction. Durant cette période l'industrialisation du bâtiment est considérée comme la seule solution pour répondre à une construction massive, moins chère et plus rapide. Dès lors, la trajectoire technologique de la préfabrication se subdivise en deux périodes, dévoilantla séparation de la conception technique (centralisée par la DESUS) de la réalisation(représentée par les procédés constructifs). Dans la première période (1951-1962), les architectes sont les auteurs des projets, dans la deuxième (1964-1973) ce sont les procédés les manifestations visibles. Ce parcours met donc en exergue deux logiques opposées :série et volume d'une part, diversité et flexibilité, d'autre part. Le croisement de sources diverses (revues, archives, documentation technique...) révèlent le rapport des différentes acteurs : architectes (de conception et d'opération), concepteurs-éducateurs, industriels entrepreneurs,maîtres d'ouvrage ministériels et ordonnateurs secondaires (contrôle technique). Cette recherche contribue ainsi à l'histoire de la préfabrication et de ses développements. Le bâtiment scolaire représente un excellent échantillon de cette période de maturité de l'industrialisation du bâtiment, postérieure à la Seconde Guerre mondiale lorsque la préfabrication faisait ses preuves.
129

Générateurs de nombres véritablement aléatoires à base d'anneaux asynchrones : conception, caractérisation et sécurisation / Ring oscillator based true random number generators : design, characterization and security

Cherkaoui, Abdelkarim 16 June 2014 (has links)
Les générateurs de nombres véritablement aléatoires (TRNG) sont des composants cruciaux dans certaines applications cryptographiques sensibles (génération de clés de chiffrement, génération de signatures DSA, etc). Comme il s’agit de composants très bas-niveau, une faille dans le TRNG peut remettre en question la sécurité de tout le système cryptographique qui l’exploite. Alors que beaucoup de principes de TRNG existent dans la littérature, peu de travaux analysent rigoureusement ces architectures en termes de sécurité. L’objectif de cette thèse était d’étudier les avantages des techniques de conception asynchrone pour la conception de générateurs de nombres véritablement aléatoires (TRNG) sûrs et robustes. Nous nous sommes en particulier intéressés à des oscillateurs numériques appelés anneaux auto-séquencés. Ceux-ci exploitent un protocole de requêtes et acquittements pour séquencer les données qui y circulent. En exploitant les propriétés uniques de ces anneaux, nous proposons un nouveau principe de TRNG, avec une étude théorique détaillée sur son fonctionnement, et une évaluation du cœur du générateur dans des cibles ASIC et FPGA. Nous montrons que ce nouveau principe permet non seulement de générer des suites aléatoires de très bonne qualité et avec un très haut débit (>100 Mbit/s), mais il permet aussi une modélisation réaliste de l’entropie des bits de sortie (celle-ci peut être réglée grâce aux paramètres de l’extracteur). Ce travail propose également une méthodologie complète pour concevoir ce générateur, pour le dimensionner en fonction du niveau de bruit dans le circuit, et pour le sécuriser face aux attaques et défaillances / True Random Number Generators (TRNG) are ubiquitous in many critical cryptographic applications (key generation, DSA signatures, etc). While many TRNG designs exist in literature, only a few of them deal with security aspects, which is surprising considering that they are low-level primitives in a cryptographic system (a weak TRNG can jeopardize a whole cryptographic system). The objective of this thesis was to study the advantages of asynchronous design techniques in order to build true random number generators that are secure and robust. We especially focused on digital oscillators called self-timed rings (STR), which use a handshake request and acknowledgement protocol to organize the propagation of data. Using some of the unique properties of STRs, we propose a new TRNG principle, with a detailed theoretical study of its behavior, and an evaluation of the TRNG core in ASICs and FPGAs. We demonstrate that this new principle allows to generate high quality random bit sequences with a very high throughput (> 100 Mbit/s). Moreover, it enables a realistic estimation for the entropy per output bit (this entropy level can be tuned using the entropy extractor parameters). We also present a complete methodology to design the TRNG, to properly set up the architecture with regards to the level of noise in the circuit, and to secure it against attacks and failures
130

Probabilistic Bayesian approaches to model the global vibro-acoustic performance of vehicles / Approches probabilistes Bayésiennes pour modéliser les performances vibro-acoustiques globales des véhicules

Brogna, Gianluigi 18 December 2018 (has links)
Dans le domaine automobile, bien qu’assez élaborées, les approches actuellement mises en œuvre pour analyser et prédire l’état vibro-acoustique d’un véhicule ne sont pas encore représentatives de la complexité réelle des systèmes mis en jeu. Entre autres limitations, les spécifications pour la conception restent essentiellement basées sur des cas de chargement extrêmes, utiles pour la tenue des structures mais non représentatifs de l’usage client pour les prestations vibro-acoustiques. Un objectif principal est ainsi de construire des modèles probabilistes aptes à prendre en compte les usages client et les conditions de fonctionnement réelles, en même temps que les incertitudes structurelles du véhicule comme les dispersions en fabrication. Ces modèles sont destinés à maîtriser un domaine s’étendant jusqu’aux moyennes fréquences. Pour ce faire, quatre étapes sont proposées : (1) une modélisation générique du système mécanique constitué par un véhicule, cohérente avec les réponses dynamiques dont la prédiction est souhaitée par les ingénieurs automobile ; (2) l’estimation de l’ensemble des efforts qui s’appliquent sur ce système, pour une large plage de conditions de fonctionnement véhicule ; (3) l’analyse et la modélisation de ces efforts considérés comme fonctions des conditions de fonctionnement; (4) l’étude de l’application des efforts modélisés à une structure dont les fonctions de transfert ont été calculées par une méthode d’élément finis stochastique non-paramétrique. La réponse ainsi obtenue est une image bien plus fidèle des conditions de fonctionnement du véhicule et de ses incertitudes structurelles. Pour ces étapes, des algorithmes bayésiens ad hoc sont développés et mis en œuvre sur une importante base de données issue de projets automobiles. Le cadre bayésien est particulièrement utile dans ce travail pour prendre en compte toute connaissance a priori, notamment celle des experts véhicule, et pour facilement propager l’incertitude entre les différents niveaux du modèle probabilisé. Enfin, les méthodes d’analyse choisies ici se révèlent intéressantes non seulement pour la réduction effective des données, mais aussi pour aider la compréhension physique et l’identification des phénomènes dynamiquement dominants. / In the automotive domain, although already quite elaborate, the current approaches to predict and analyse the vibro-acoustic behaviour of a vehicle are still far from the complexity of the real system. Among other limitations, design specifications are still essentially based on extreme loading conditions, useful when verifying the mechanical strength, but not representative of the actual vehicle usage, which is instead important when addressing the vibro-acoustic performance. As a consequence, one main aim here is to build a prediction model able to take into account the loading scenarios representative of the actual vehicle usage, as well as the car structural uncertainty (due, for instance, to production dispersion). The proposed model shall cover the low and mid-frequency domain. To this aim, four main steps are proposed in this work: (1) the definition of a model for a general vehicle system, pertinent to the vibro-acoustic responses of interest; (2) the estimation of the whole set of loads applied to this system in a large range of operating conditions; (3) the statistical analysis and modelling of these loads as a function of the vehicle operating conditions; (4) the analysis of the application of the modelled loads to non-parametric stochastic transfer functions, representative of the vehicle structural uncertainty. To achieve the previous steps, ad hoc Bayesian algorithms have been developed and applied to a large industrial database. The Bayesian framework is considered here particularly valuable since it allows taking into account prior knowledge, namely from automotive experts, and since it easily enables uncertainty propagation between the layers of the probabilistic model. Finally, this work shows that the proposed algorithms, more than simply yielding a model of the vibro-acoustic response of a vehicle, are also useful to gain deep insights on the dominant physical mechanisms at the origin of the response of interest.

Page generated in 0.0347 seconds