Spelling suggestions: "subject:"wide"" "subject:"side""
41 |
Réalisation d'un dispositif de test de cibles pour la production d'ions radioactifs par la méthode ISOLDurantel, F. 19 January 2005 (has links) (PDF)
Ce travail s'inscrit dans le cadre d'un programme européen visant à optimiser le temps de relâchement d'atomes des systèmes de production d'ions radioactifs de type ISOL (Isotope Separator On Line). Il a pour but à la fois le développement de faisceaux d'éléments nouveaux et l'amélioration en intensité et pureté des faisceaux déjà existants. Dans la méthode ISOL, un faisceau primaire d'ions entre en collision avec les noyaux d'une cible solide et épaisse (les ions incidents sont arrêtés dans la cible). Les noyaux incidents se fragmentent et donnent lieu à des noyaux radioactifs, également stoppés dans la cible. Une fois leur cortège électronique reconstitué, ils diffusent en dehors de la cible. Pour accélérer le processus de diffusion, la cible est fortement chauffée. Sortis de la cible, les atomes radioactifs effusent jusqu'à une source d'ions dans laquelle ils sont ionisés. En sortie de source, ils sont accélérés pour former un faisceaux et sont transportés jusqu'aux aires expérimentales. Compte tenu du nombre important de paramètres qui gouvernent les phases de diffusion et d'effusion dans cette technique, celles-ci font l'objet d'études particulières. Afin d'apporter les connaissances nécessaires à la conception et à l'optimisation des futurs dispositifs de production d'ions radioactifs en ligne, il est nécessaire de développer une base de données sur les caractéristiques de diffusion des atomes dans les matériaux cibles. Dans ce but, le GANIL a conçu et réalisé un nouveau dispositif permettant de tester au cours d'une même expérience plusieurs couples de faisceaux primaires et de cibles, et ainsi d'augmenter de façon significative la vitesse d'obtention de résultats. Les mesures sont réalisées à la suite les unes des autres pour les différents couples projectile-cible, ce qui assure qu'elles sont effectuées dans des conditions expérimentales très proches. La comparaison des résultats sera donc peu affectée par le doute lié à la difficulté de reproduire des conditions expérimentales identiques. L'ensemble est constitué d'un système d'analyse (ioniseur basé sur une source à Résonance Cyclotronique Electronique associé à un spectromètre de masse), d'un four destiné à fixer la température de la cible à étudier, et d'un distributeur de cibles. L'ensemble a été testé et caractérisé (hors faisceau primaire).
|
42 |
Synthèse in-situ et caractérisation de nanotubes de carbone individuels sous émission de champMarchand, Mickaël 16 November 2009 (has links) (PDF)
L'étape clé pour intégrer des nanotubes de carbone à une échelle industrielle demeure un meilleur contrôle de leur croissance et notamment le contrôle sélectif de leurs chiralités en lien avec leurs propriétés électroniques. Ce travail a pour but de s'intéresser à la synthèse in-situ et à la caractérisation de nanotubes de carbone individuels par émission de champ pour mieux comprendre les mécanismes de nucléation et de croissance qui conditionnent sa chiralité. Nous avons développé un microscope à émission de champ couplé à un réacteur CVD (Chemical Vapor Deposition) pour observer directement la croissance catalytique de nanotubes de carbone individuels sur des pointes émettrices. Nous avons ainsi découvert que les nanotubes tournent souvent axialement pendant leur croissance, soutenant ainsi un modèle de " dislocation de vis ". L'analyse détaillée des résultats obtenus montre que nous observons directement la croissance atome par atome d'un nanotube monofeuillet individuel avec ajout d'un dimère de carbone à la fois à sa base. Parallèlement, des échantillons ont été caractérisés en détail sous émission de champ. Nous avons établi un protocole de collage de nanotubes individuels à l'apex d'une pointe métallique sous microscopies optique et électronique à balayage à l'aide d'un nanomanipulateur. Leur dépendance en température à très bas courant a été mise en évidence avec un compteur d'électrons afin d'identifier les différents domaines d'émission électronique. L'analyse des distributions énergétiques a fait apparaître un phénomène de chauffage induit qui peut mener à des températures de l'ordre de 2000 K à l'extrémité du nanotube lorsqu'il est soumis à un fort champ.
|
43 |
Étude de la contribution catalytique à la stabilité des effluents en hydroconversion des résidus sous videMarchal, Charles 18 November 2010 (has links) (PDF)
Ce travail porte sur la compréhension du phénomène d'instabilité qui se produit dans le procédé d'hydroconversion des résidus sous vide (RSV). Au delà de 60% de conversion du RSV, l'instabilité se manifeste par un dépôt solide d'hydrocarbures lourds dans les unités industrielles de conversion des résidus, ce qui empêche d'atteindre un niveau de conversion du RSV plus élevé. L'objectif de cette thèse consiste à mieux comprendre l'influence du catalyseur utilisé dans le procédé d'hydroconversion sur l'apparition du phénomène d'instabilité. Des catalyseurs dopés au fluor et sodium ont été préparés par ajout de dopants à la surface d'un catalyseur NiMo/Al2O3 de référence. Après leur caractérisation, les catalyseurs ont été testés sur charge réelle RSV en réacteur autoclave. Les tests catalytiques ont été réalisés à haute température dans les conditions industrielles (430°C) et à plus basse température (390°C), afin de favoriser les réactions catalytiques par rapport aux réactions thermiques. Les tests catalytiques réalisés à 390 et 430°C montrent une teneur en sédiments deux fois moins importante avec le catalyseur F-NiMo, ce qui est expliqué par une amélioration de la conversion des asphaltènes. Celle-ci est expliquée par l'amélioration des réactions d'hydrogénation et de l'acidité, et par une meilleure résistance au cokage à 390°C. L'effet de la température sur la stabilité a également été étudié. Les résultats démontrent que la teneur en sédiments des effluents est deux fois supérieure pour les tests réalisés à 430°C par rapport aux tests réalisés à 390°C. Cet accroissement de l'instabilité est attribué à un caractère plus aromatique et condensé des molécules qui précipitent (asphaltènes), qui ont en conséquence une tendance accrue à s'agréger, et par la désalkylation des molécules qui stabilisent (résines).
|
44 |
Contribution au développement de la projection thermique à très faible pressionSokolov, Dmitry 10 March 2009 (has links) (PDF)
Le but de ce travail est de mettre au point une nouvelle technologie de dépôts de matériaux par voie sèche. Pour ce faire, nous avons développé, par une approche théorique et expérimentale, un nouveau procédé qui met en oeuvre la technologie de la projection thermique dans le domaine des basses pressions (inférieures à 10 hPa). Le domaine des basses pressions concerné par cette étude permet de générer de fortes enthalpies au niveau de la source thermique, à pression élevées, et de travailler à faibles pressions au niveau du substrat. Ce qui d'une part évite les contaminations chimiques (oxydation, réactions chimiques,...) dans les matériaux du dépôt et d'autre part réduit le taux de porosité et améliore l'adhérence de la couche ainsi construite. Ainsi, les propriétés physiques des dépôts obtenus s'approchent de celles des dépôts réalisés par le procédé de déposition en phase vapeur sous vide (PVD) en ayant l'avantage d'en accroître la vitesse d'obtention. Pendant ce travail, une approche théorique par des moyens de calcul (FLUENT) a permis d'étudier les conditions d'écoulement du plasma et l'effet de l'injection du matériau. Les résultats ont permis de définir un divergent de géométrie Laval adaptable à une torche classique F4VB de projection thermique sous pression réduite (VLPPS). En parallèle, une enceinte de grand volume adoptée au procédé a été conçue, réalisée et testée au sein du laboratoire. Cette enceinte, constituée d'une chambre mobile et d'une chambre fixe, est équipée d'un robot, de différents systèmes de diagnostics (thermocouples, DPV, spectromètre optique, pyromètre optique, etc.), de systèmes de refroidissement d'un porte substrat. Différents essais de matériaux métalliques ont permis de valider le concept et le procédé. Ensuite l'étude a concerné l'obtention de différents dépôts de matériaux à base de cuivre, à différentes pressions. Pour étudier les différents constituants du matériau issu de la torche, une méthode spécifique a été développée, qui permet de caractériser les phases vapeurs et solides créées de manière séparée et indépendante. Les résultats ont permis de comparer la structure des dépôts obtenus par ce procédé et par le procédé PVD, et de confirmer la possibilité d'obtention de revêtements denses ou colonnaires.
|
45 |
New Algorithms and Data Structures for the Emptiness Problem of Alternating Automata / Nouveaux algorithmes et structures de données pour le problème du vide des automates alternantsMaquet, Nicolas P. P. 03 March 2011 (has links)
This work studies new algorithms and data structures that are useful in the context of program verification. As computers have become more and more ubiquitous in our modern societies, an increasingly large number of computer-based systems are considered safety-critical. Such systems are characterized by the fact that a failure or a bug (computer error in the computing jargon) could potentially cause large damage, whether in loss of life, environmental damage, or economic damage. For safety-critical systems, the industrial software engineering community increasingly calls for using techniques which provide some formal assurance that a certain piece of software is correct.
One of the most successful program verification techniques is model checking, in which programs are typically abstracted by a finite-state machine. After this abstraction step, properties (typically in the form of some temporal logic formula) can be checked against the finite-state abstraction, with the help of automated tools. Alternating automata play an important role in this context, since many temporal logics on words and trees can be efficiently translated into those automata. This property allows for the reduction of model checking to automata-theoretic questions and is called the automata-theoretic approach to model checking. In this work, we provide three novel approaches for the analysis (emptiness checking) of alternating automata over finite and infinite words. First, we build on the successful framework of antichains to devise new algorithms for LTL satisfiability and model checking, using alternating automata. These algorithms combine antichains with reduced ordered binary decision diagrams in order to handle the exponentially large alphabets of the automata generated by the LTL translation. Second, we develop new abstraction and refinement algorithms for alternating automata, which combine the use of antichains with abstract interpretation, in order to handle ever larger instances of alternating automata. Finally, we define a new symbolic data structure, coined lattice-valued binary decision diagrams that is particularly well-suited for the encoding of transition functions of alternating automata over symbolic alphabets. All of these works are supported with empirical evaluations that confirm the practical usefulness of our approaches. / Ce travail traite de l'étude de nouveaux algorithmes et structures de données dont l'usage est destiné à la vérification de programmes. Les ordinateurs sont de plus en plus présents dans notre vie quotidienne et, de plus en plus souvent, ils se voient confiés des tâches de nature critique pour la sécurité. Ces systèmes sont caractérisés par le fait qu'une panne ou un bug (erreur en jargon informatique) peut avoir des effets potentiellement désastreux, que ce soit en pertes humaines, dégâts environnementaux, ou économiques. Pour ces systèmes critiques, les concepteurs de systèmes industriels prônent de plus en plus l'usage de techniques permettant d'obtenir une assurance formelle de correction.
Une des techniques de vérification de programmes les plus utilisées est le model checking, avec laquelle les programmes sont typiquement abstraits par une machine a états finis. Après cette phase d'abstraction, des propriétés (typiquement sous la forme d'une formule de logique temporelle) peuvent êtres vérifiées sur l'abstraction à espace d'états fini, à l'aide d'outils de vérification automatisés. Les automates alternants jouent un rôle important dans ce contexte, principalement parce que plusieurs logiques temporelle peuvent êtres traduites efficacement vers ces automates. Cette caractéristique des automates alternants permet de réduire le model checking des logiques temporelles à des questions sur les automates, ce qui est appelé l'approche par automates du model checking. Dans ce travail, nous étudions trois nouvelles approches pour l'analyse (le test du vide) desautomates alternants sur mots finis et infinis. Premièrement, nous appliquons l'approche par antichaînes (utilisée précédemment avec succès pour l'analyse d'automates) pour obtenir de nouveaux algorithmes pour les problèmes de satisfaisabilité et du model checking de la logique temporelle linéaire, via les automates alternants.Ces algorithmes combinent l'approche par antichaînes avec l'usage des ROBDD, dans le but de gérer efficacement la combinatoire induite par la taille exponentielle des alphabets d'automates générés à partir de LTL. Deuxièmement, nous développons de nouveaux algorithmes d'abstraction et raffinement pour les automates alternants, combinant l'usage des antichaînes et de l'interprétation abstraite, dans le but de pouvoir traiter efficacement des automates de grande taille. Enfin, nous définissons une nouvelle structure de données, appelée LVBDD (Lattice-Valued Binary Decision Diagrams), qui permet un encodage efficace des fonctions de transition des automates alternants sur alphabets symboliques. Tous ces travaux ont fait l'objet d'implémentations et ont été validés expérimentalement.
|
46 |
Modélisation et mesure des pertes fer dans les machines électriques, application à la machine asynchroneChevalier, Thierry 20 December 1999 (has links) (PDF)
Les conséquences importantes sur l'environnement d'une consommation grandissante d'énergie rendent indispensable une maîtrise du rendement des dispositifs électriques. Il est nécessaire pour améliorer les performances de ces dispositifs de posséder non seulement d'une connaissance fine des phénomènes dissipatifs mais aussi d'outils permettant une simulation- efficace. Parmi tous ces dispositifs, les machines électriques représentent une part très importante. L'énergie dissipée s'y situe, pour une grande partie, dans les tôles électriques utilisées pour la composition de leur circuit magnétique. Une analyse complète du comportement dynamique des ces tôles est menée, elle met en évidence sa sensibilité à la vitesse de variation de l'induction. Cette analyse conduit, grâce à une séparation des aspects statiques et dynamiques, à la définition d'un modèle d'hystérésis dynamique qui permet une représentation précise des tôles électriques. Le modèle d'hystérésis est ensuite combiné à une méthode d'analyse numérique par éléments finis pour évaluer localement la puissance dissipée par le circuit magnétique de la machine. La méthode est validée dans le cas de machines asynchrones de faible puissance. Une analyse complémentaire dans ce cas précis permet de déterminer d'autres phénomènes dissipatifs responsables de pertes supplémentaires. Ils ont pour origine soit des propriétés intrinsèques des matériaux, comme l'anisotropie, soit des opérations du processus de fabrication, comme les courts-circuits en surface du rotor. La prise en compte de l'ensemble de ces phénomènes a conduit à un modèle qui permet de prédire avec précision le rendement des machines électriques.
|
47 |
Essai sur la reconstruction du vide : l'exemple du Faubourg Saint-LaurentHudon, Pascal 11 1900 (has links) (PDF)
Le faubourg Saint-Laurent, quartier central de Montréal, est incapable d'attirer des projets architecturaux aptes à combler ses vides, conséquences des pratiques architecturales modernistes des années cinquante et soixante. Les citoyens se sont approprié ces vides en raison de leurs propriétés hétérotopiques (Foucault, 1967) et s'opposent à tout projet qui détruira le lien privilégié qui s'est développé entre eux et cette ouverture de l'espace. Parce qu'il est le seul à maintenir ce lien, le seul aménagement convenable est l'espace public. L'officialisation du vide diminue la capacité de la ville à se régénérer. Ces oppositions aux projets démontrent l'impact d'une culture d'immobilisme (phénomène NIMBY) et de la crainte du changement. Pour assurer l'évolution de la ville, particulièrement des quartiers centraux, nous devons trouver des projets acceptables et des processus qui en permettent l'acceptation. Une étude philosophique de l'impact du vide sur la population a déterminé que son appropriation existait de façon psychologique, par la création d'un projet architectural personnel qui invalidait ainsi tout autre projet. Ces espaces sont hétérotopiques par leur capacité à représenter toutes et aucune des fonctions à la fois. Notre hypothèse affirme qu'une nouvelle définition de l'ouverture de l'espace, et ce tant physique que visuelle, préserverait les propriétés hétérotopiques des vides actuels. L'ouverture de l'espace arraché et aménagé a contribué à la création d'une nouvelle définition du besoin d'ouverture de l'espace. Les typologies résidentielles actuelles sont incapables de défendre cette nouvelle définition de l'ouverture de l'espace. Actuellement, de nouvelles typologies ne peuvent apparaître à cause notamment de la réglementation inappropriée, d'une structure de consultations publiques inefficace et en raison du manque de volonté politique. Les liens entre le vide et le plein nécessitent une profonde reconsidération. La relation actuelle, qui a rejeté celle du mouvement moderniste, n'est pas conséquente des besoins existants, des valeurs populaires et de l'évolution des techniques de construction. Le faubourg Saint-Laurent mérite qu'on s'attarde encore à son sort. Une série de nouveaux projets affirment être en mesure de redonner la vitalité au secteur. Ces solutions, bien que souhaitables, n'arriveront pas seules à rétablir l'environnement construit du quartier.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Montréal, modernisme, appropriation, vide, faubourg Saint-Laurent
|
48 |
Etude des formes hydratées du sulfate de calcium (gypse-plâtres)Guilhot, Bernard 08 May 1970 (has links) (PDF)
Le sulfate de calcium dihydraté que l'on trouve à l'état naturel sous forme de gypse est également un sous-produit d'une préparation de l'acide orthophosphorique. La principale application de ce matériau est la préparation du plâtre, que l'on considère souvent comme un hemihydrate du sulfate de calcium. Etant donné l'intérêt industriel de ce produit (en 1967 la production française de plâtre a été de 2,5 Mt) un grand nombre de travaux ont été effectués tant sur les conditions de la déshydratation du gypse que sur la nature des produits obtenus. Cependant, on constate que les conclusions des différents auteurs sont souvent très divergentes. Dans le cadre général des recherches effectuées au laboratoire, nous désirions entreprendre une étude sur la cinétique de la déshydratation du sulfate de calcium dihydraté. Compte tenu des données de la littérature, il s'est avéré nécessaire, avant d'aborder les études cinétiques, d'effectuer une recherche systématique sur la composition et la structure des produits obtenus au cours de la déshydratation : C'est l'objet de ce travail. Nous nous sommes efforcé d'opérer avec un solide initial de composition et de structure connues et reproductibles. Deux types d'expériences ont été effectués suivant la nature de l'atmosphère gazeuse au-dessus du solide. Des expériences sous air, en présence de l'atmosphère normale du laboratoire, avaient pour but, d'une part la mise au point de l'appareillage par comparaison avec les résultats signalés dans la littérature, d'autre part, il s'agissait de se rapprocher des conditions habituelles d'utilisation du gypse. De plus, associés à des expériences effectuées sous vide dynamique (10<sup>-3</sup> Torr) les résultats obtenus sous air nous ont permis de délimiter l'intervalle de température intéressant. Il convient en outre de remarquer que sous vide dynamique la pression partielle de vapeur d'eau est pratiquement nulle (de l'ordre de 10<sup>-5</sup>Torr). Ce n'est qu'en la présence d'une atmosphère gazeuse parfaitement définie qu'il est possible d'obtenir des résultats reproductibles ayant une signification certaine. Une deuxième série d'expériences effectuées en présence de vapeur d'eau pure sous des pressions déterminées nous ont permis de déceler avec précision l'influence des différents paramètres et d'expliquer les résultats obtenus sous air.
|
49 |
Modélisation du comportement thermique à long terme des panneaux isolants sous vide : (PIV) / Modelling of long-term thermal behaviour of vacuum insulation panels : (VIP)Batard, Antoine 14 February 2017 (has links)
On peut distinguer deux familles d'isolants thermiques pour le bâtiment : les isolants dits traditionnels et les super-isolants qui se caractérisent par un pouvoir isolant plus performant qu'une simple lame d'air immobile (25 mW/m/K). Les Panneaux Isolants sous Vide (PIV) font partie de cette seconde catégorie. Un PIV n'est pas un matériau homogène, mais un système constitué d'un matériau de cœur mis sous vide et enfermé dans une enveloppe. La performance thermique du PIV repose sur la structure nano-poreuse du matériau de cœur et du vide primaire maintenu par l'enveloppe qui possède une très faible perméabilité aux gaz. Alors que les isolants traditionnels ont des conductivités thermiques allant de 21 mW/m/K pour la mousse polyuréthane à 50 mW/m/K pour les laines les moins performantes, celle des PIV est d'environ 4 mW/m/K à l'état neuf. Cependant, comme tout isolant, leur performance se dégrade dans le temps. Cette diminution de conductivité thermique est davantage préjudiciable pour les PIV à cause de leur très bonne performance initiale et de leur coût encore élevé. Il convient donc d'étudier l'évolution de leur performance thermique sur l'ensemble de leur durée de vie dans le bâtiment, c'est à dire 50 ans. Pour cela la modélisation a été choisie comme outil car l'expérimentation ne peut satisfaire ces durées d'étude. L'étude du comportement thermique des PIV passe par différents axes de recherches intervenant à différentes échelles.Le premier concerne les mécanismes de transferts des gaz à travers les enveloppes des PIV, aussi appelés complexes barrières. L'enjeu est d'améliorer notre compréhension sur les relations qui existent entre les propriétés morphologiques des complexes barrières et les phénomènes de diffusion de la vapeur d'eau et de l'air sec à travers les différentes couches de matériaux qui constituent ces complexes barrières. Les résultats obtenus ne permettent pas encore de proposer un modèle de diffusion juste à cette échelle, mais mettent en avant certaines tendances et mécanismes physiques qui ouvrent de nouvelles pistes d'exploration.Le deuxième axe de recherche s'intéresse au comportement hygro-thermique à l'échelle des panneaux. Un modèle numérique de PIV a été développé afin de prendre en compte ses propriétés géométriques, thermiques et hydriques dans le calcul la performance thermique globale du panneau. Le modèle intègre le vieillissement du matériau de cœur par la modification de son isotherme de sorption à la vapeur d'eau. Des PIV fabriqués avec différents types de matériaux de cœur sont étudiés dans différentes conditions constantes en température et humidité. Les résultats des simulations permettent de mieux comprendre l'évolution de la conductivité thermique des PIV, d'analyser leur comportement global et de déterminer les principales caractéristiques qui sont déterminantes pour améliorer leur performance.Enfin, la troisième partie des travaux de recherche est consacrée au développement d'une méthode d'analyse de la performance des PIV en conditions réelles d'installation dans un bâtiment, dans différent climats français et plusieurs applications d'isolation. L'objectif est tout d'abord de déterminer les sollicitations réelles auxquelles sont soumis les PIV mis en œuvre, et ensuite de simuler leur comportement thermique à long terme afin de prédire leur performance moyenne. Les résultats donnent des températures et humidités qui sont très variables selon les climats, les systèmes d'isolation et les saisons de l'année, mais celles-ci restent finalement relativement modérées. La performance thermique moyenne des PIV sur 50 ans dépend très peu des applications, mais plus des climats et encore plus du type de silice qui constitue leur matériau de cœur. Contrairement à ce que laissent supposer les essais à court terme, les silices hydrophobes sont les plus favorables. Selon les applications et les climats, la conductivité thermique moyenne des PIV peut varier entre 4,7 et 7,3 mW/m/K. / Two types of thermal insulation materials exist for building application: the conventional insulation and the super-insulation materials which is characterized by an insulating performance higher than that of a simple layer of still air 25 mW/m/K). Vacuum Insulation Panels (VIP) belong to the second category. VIP is not a homogeneous material, but a product consisting of a core material maintained under vacuum by an envelope. The thermal performance of VIP is based on the nanoporous property of the core material and on the vacuum maintained by the envelope which has a very high gas barrier properties. While conventional insulation material has a thermal conductivity values from 21 mW/m/K for polyurethane foams to 50 mW/m/K for the worst wools, that of new VIPs is around 4 mW/m/K. Nevertheless, like every insulation materials, their performance degrades over time. This increase of thermal conductivity is even more detrimental for VIPs because of their very high initial performance and of their high cost. It is therefore important to study their thermal performance evolution over all their service-life in building, over 50 years. In order to manage this, modelling has been chosen, because experiments cannot be realised over such long periods. Studying the thermal performance of VIPs is going through different research topics which take place at different scales.The first one concerns the gas transfer mechanisms through the VIPs’ envelope, also called barrier complexes. The challenge is to improve our understanding of the relationship between the barrier complexes morphological properties and the water vapour and dry air diffusion phenomena through the different layers of materials which compose these barrier complexes. The results do not allow to provide a correct model at this scale, but put forward some trends and physical mechanisms that open up new avenues of exploration.The second research topic is focused on the hygro-thermal behaviour at panels’ scale. A numerical model of VIP has been developed in order to take into account its geometric, thermal and hygric properties in the global thermal performance calculation of the panel. The model integrates the ageing process of the core material by moving its water vapour sorption isotherm. VIPs made with different types of core material has been studied in different constant conditions of temperature and humidity. Simulation results allow to better understand the thermal conductivity evolution of VIPs, to analyse their global behaviour and to determine the main characteristics which are relevant to improve their performance.Then, the third part of the research studies is dedicated to the development of a method which allows to analyse the VIPs’ performance in real conditions of installation in building, in different French climate conditions and several insulation applications. The aim is first to determine the real solicitations imposed on VIP, and then to simulate their long-term thermal performance in order to predict their mean performance. Results show a large dispersion of solicitations submitted to VIPs according to the climate conditions and insulation systems. Temperatures and humidities are highly variable according to the seasons, but finally remain relatively moderate. It is turns out that the mean thermal performance of VIPs over 50 years differs little from applications, but more from climate conditions and even more from the type of silica used for the core material. Contrary to what the short term tests would suggest, hydrophobic silicas are most favourable. The mean thermal conductivity of VIPs can varies between 4.7 and 7.3 mW/m/K.
|
50 |
La plénitude ontologique du vide / The ontological fullness of the voidKopacz, André 17 April 2015 (has links)
Ce titre de plénitude ontologique du vide signifie que le vide n’est pas un néant, un rien ou une absence définitive mais, au contraire, l’affirmation en son autosuffisance de la présence à l’état pur. Le vide est plein de la présence pure, mieux il s’identifie à elle. De l’atomisme antique à la Révolution scientifique en passant par la Renaissance, de Démocrite à Newton via Bruno, d’Aristote à Descartes en tant que ses plus éminentes adversaires, le vide n’a cessé de hanter tant le champ de la métaphysique que celui de la science, celui de l’expérience comme celui de l’imaginaire. Après avoir tenté de l’expulser de la physique au moyen de la notion d’éther, la cosmologie contemporaine redécouvre le rôle essentiel du vide dans le devenir et peut-être l’origine de l’univers. Aujourd’hui, c’est au tour de la métaphysique de soupeser à nouveaux frais le poids du vide dans le cadre de la problématique qui lui est propre. Si le vide, en tant que lieu par excellence de l’exposition de la présence, projette l’ontologie fondamentale vers sa véritable dimension, la question de l’être telle que l’entendait Heidegger prend alors toute son amplitude, non plus mondaine mais cosmologique. C’est alors tous les concepts fondamentaux heideggériens (monde, temporalité, Dasein) qui doivent être réévalué à l’aune de cette nouvelle image de la pensée imposée par la nécessité du vide. L’heideggerianisme indique-t-il ainsi une avancée ou marque-t-il une régression par rapport aux pensées cosmologiques de la métaphysique classique ? Car c’est bien une toute autre image de la pensée que celle des déconstructions qu’il s’agit de fonder, celle où les concepts de présence, de substance, de fondement et même d’Absolu recouvrent toute leur actualité. / The title of ontological fullness of the void means that the void is not a nothingness, a mere nothing or a definitive absence but, on the contrary, an assertion in its self-sufficiency of the presence in the pure state. The void is full of the pure presence, better it is identified with it. From ancient atomism to the scientific Revolution including the Renaissance, from Democritus to Newton via Bruno, from Aristotle to Descartes as their most eminent opponents, the void did not stop haunting both the field of the metaphysics and that of the science, that of the experiment as that of the imagination. Having tried to expel it from the physics by means of the notion of ether, the contemporary cosmology rediscovers the essential role of the void in the future and maybe the origin of the universe. Today, it is in the turn of the metaphysics to feel the weight at new expenses of the weight of the void within the framework of the problem of its own. If the void, as pre-eminently place of the exhibition of the presence, throws the fundamental ontology towards its real dimension, the question of the being such as heard it Heidegger takes then all its amplitude, either worldly but cosmological. It is then all the fundamental heideggerian concepts (world, temporality, Dasein) that must be revalued in the alder of this new image of the thought been imperative by the necessity of the void. Does the heideggerianism so indicate an advance or does it mark a regression with regard to the cosmological thoughts of the classic metaphysics? Because it is well very another image of the thought which that of the deconstructions which it is a question of basing, that where the concepts of presence, substance, foundation and even Absolute recover all their present situation.
|
Page generated in 0.0587 seconds