• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 20
  • 3
  • Tagged with
  • 92
  • 27
  • 24
  • 16
  • 14
  • 11
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Les nouvelles méthodes de navigation durant le Moyen Age / New navigational Methods during the Middle Ages

Com'Nougue, Michel 29 November 2012 (has links)
Les nouvelles méthodes de navigation durant le Moyen Age. Le navire de commerce à voile est propulsé par le vent et doit donc suivre cette direction générale. La navigation peut se définir selon un aspect d’abord stratégique comme le choix d’une route en tenant compte des contraintes imposées par le vent et un aspect tactique concernant le tracé et le contrôle, en cours d’exécution de cette route. 1-Dans un premier temps, la navigation antique ne se réfère qu’au seul vent qui est le moteur mais aussi le guide du navigateur pour suivre la route fixée par l’observation des traces qu’il imprime sur la mer. C’est la navigation à vue. La limite de la méthode est atteinte quand le vent devient changeant au large, ce qui oblige alors une vérification de la direction par l’observation des astres. 2- L’apparition de l’aiguille aimantée résout en partie ce problème. L’orientation géographique entraine la mise au point, à la fin du XIIIe siècle, d’une nouvelle méthode : l’estime. L’estime est la résolution graphique des problèmes que pose le contrôle de la route choisie. Cette résolution suppose, d’une part, l’usage de la boussole et d’une orientation géographique et, d’autre part, une analyse vectorielle sur un support la carte marine qui est donc indissociable de la méthode. Le plus gros défaut de l’estime est que les positions sont définies par projection dans le futur de paramètres, cap et distances parcourues actuels. Des différences sont donc à prévoir qui entrainent une zone d’incertitude sur le point estimé. 3- Lorsqu’au début du XVe siècle les navigateurs se lancent dans l’inconnu, obligés de suivre le vent qui décrit des boucles, les voyages s’allongent sans voir la terre pour une confrontation avec des positions avérées. La taille des zones d’incertitude obligent le navigateur a préciser sa position finale par d’autres méthodes basées sur des observations astronomiques. On peut distinguer deux méthodes : Tout d’abord, la méthode des hauteurs de polaire, de 1433 à 1480 environ, qui permet de finaliser la volta et d’effectuer un atterrissage selon une route Est-Ouest. L’analyse de la technique nautique de Colomb, qui utilise cette méthode, est très semblable à celle décrite par Ibn Majid dans son traité de navigation. Il est probable qu’il y a eu transmission sans pouvoir préciser les circonstances exactes.Mais dès que les navigateurs franchissent l’équateur la polaire devient indisponible, les navigateurs doivent observer le soleil. Cette deuxième méthode est plus délicate car les paramètres du soleil changent chaque jour. Ils obligent donc le navigateur à calculer la latitude, à partir de l’observation de la méridienne de soleil et par l’usage de tables des données solaire : os regimentos do sol. C’est cette méthode qui permet à Vasco da Gama de doubler le cap de Bonne Esperance, en 1498, ce qui marque la fin de la période étudiée. Pour conclure il faut remarquer que ces deux derniers méthodes sont le fruit d’une coopération entre les usagers et les scientifiques sous l’égide du pouvoir, décidé à atteindre le but fixé. C’est donc le fruit d’une véritable recherche scientifique. En second lieu, il faut également noter que les progrès de la navigation accompagnent des progrès parallèles en architecture navale, le gouvernail d’étambot, ainsi que de nouvelles procédures dans le commerce maritime. L’étude des interactions entre ces divers domaines reste à faire. / New navigational methods during the Middle Ages.A sailing vessel is pushed forwards by the wind in the general direction towards it is blowing. Navigation should comply with strategic goals: i.e. the choice of a route to a port of destination, taking into account this wind constraint. A tactical aspect is involved when following this route and checking, the entire voyage long, the good guidance of the ship. 1-In the first ages of navigation, the mariner is referring to the sole element at his disposal: the wind. It gives him elements for the direction to choose, if it is a convenient time for sailing and also it supplies the means of checking and controlling the course of the ship, by observation of the marks it is printing on the surface of the sea. Variable wind is the limit of this method. In this case, only sky observation can give an indication of the direction to follow.2- The finding of the magnetic needle solves this problem and from this new tool, a new navigation method is implemented, around the end of the XIII.th century. Dead reckoning is a way to determinate ship’s position at any moment, using a vector analysis for solving graphically the problems that checking the chosen course can induce. This graphical method is using the compass indications and needs necessarily using a marine chart. The main problem of dead reckoning is that, using present data to reckon future positions , any error in assessing these data supposes an uncertainty in this position. Correction of the route is necessary by verifying with actual land falls. Longer the voyage without such confrontation and bigger the uncertainty zone to be faced.3-In the beginning of the XV.th century, Portuguese mariners started to run the open ocean. They had to follow the wind which runs along a long loop across the ocean, la volta. Therefore running in the open seas, without any land to be seen, in order to check the actual position, obliged mariners to elaborate new methods based on astronomical observations in order to reduce the size of this uncertainty zone, when arriving to the landing point. A first method is based on the observation of the pole star depth; between the years 1433 to 1480. It is based on observation of the pole star depth. Analysis of C. Columbus nautical art shows similarities with the written work of Ibn Majid, his contemporaneous Arab nautical expert. Crossing the equator line made the polar star not available any more. Therefore, the method had to be changed and the second method involved sun observations. This is more complex as the sun data are changing every day. Therefore mariners had to reckon the latitude, using the observations of the meridian line and using of sun data tables: the so called regimentos do sol. Through this method Vasco da Gama was able to reach the Indian Ocean after passing the Cape of Good Hope. This closes the period of this study.The conclusion should take into account the fact that these astronomical methods were not entirely empiric but the result of a joint research of users, mariners and scientists. This endeavor was made possible because a central power, the Infant first , then King Joao II, were willing to proceed more south and gave their mariners the technical means to do so.A second conclusion observes that progress of navigation were accompanied by parallels progresses in naval construction and maritime new contracts and ways of handling commercial matters. There are surely interactions between these three domains, but we have still to put them into evidence.
72

Etude par simulation numérique des écoulements dans le conduit d’admission d’un moteur à levée de soupape d’admission variable / The study by numerical simulation of the slows in the intake manifold of an engine with variable lift of the intake valve

Iorga-Simăn, Victor 06 March 2012 (has links)
L’impact négatif de l’automobile sur l’environnement a entraîné une sévérisation des normes législatives pour protéger celui-ci. Les difficultés rencontrées lors de l’amélioration du rendement du moteur à allumage commandé, résultent principalement de son fonctionnement inefficace à charges partielles. La distribution variable est capable d'améliorations concernant la réduction de la consommation de carburant, surtout dans une zone d’utilisation fréquente : basses charges et bas régimes. Une alternative à l’étude expérimentale est l’approche par simulation numérique, CFD en utilisant le logiciel ANSYS-Fluent. Dans cette thèse de doctorat, le but principal a été de déterminer les vitesses d’écoulement du fluide pendant le processus d’admission pour deux lois de levée de la soupape, pour un moteur entraîné à 815 tr/min et une ouverture du papillon de gaz de 21.6°. Dans ce but, on a utilisé deux modèles de simulation numérique: un modèle bidimensionnel et un modèle tridimensionnel. L’étude réalisée par simulation numérique a permis de clarifier quelques aspects importants concernant les vitesses d’écoulement de l’air dans le cylindre et le degré de turbulence. / The negative impact of automobiles on the environment has led to increased severity in the legislation concerning environmental protection. The problems encountered in the efforts intended to improve the efficiency of the spark ignition engine are derived from its inefficient operation under partial loads. The variable intake valve lift is capable of significant changes aiming at lower fuel consumption, especially in the frequent use area: low torque, low speed. An alternative to the experimental study of fluid flow is the approach by numerical simulation, CFD, using the software ANSYS-Fluent. The main purpose of the present doctoral thesis was to determine the fluid flow velocity during the intake, for two intake valve lift laws, when the engine is running at 815 rpm, and with an opening of the throttle plate at 21.6°. To do this, we have used two numerical simulation models: one two-dimensional, and one three-dimensional. The study by numerical simulation made it possible to clarify some important issues regarding the air flow velocity into the cylinder, and the level of turbulence.
73

La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure / Dynamic rating curve assessment for hydrometric stations and computation of the associated uncertainties : Quality and station management indicators

Morlot, Thomas 01 October 2014 (has links)
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? ». / Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? ».
74

Nouvelles techniques de nano-indentation pour des conditions expérimentales difficiles : très faibles enfoncements, surfaces rugueuses, température

Guillonneau, Gaylord 05 December 2012 (has links)
Au cours de cette thèse ont été développées de nouvelles techniques de mesure des propriétés mécaniques par nanoindentation, adaptées à des conditions expérimentales difficiles : les très faibles enfoncements, les surfaces rugueuses, et la température. Une simulation numérique par éléments finis d’un échantillon de silice chauffé à 80°C, indenté par un diamant Berkovich dont la température initiale est de 25°C, dans de l’air à 60 °C, a mis en évidence la nécessité de chauffer l’indenteur. De plus, les essais expérimentaux à haute température effectués sur ce même échantillon ont permis de montrer que le signal de déplacement de l’indenteur est fortement perturbé par de faibles variations de température (<0,1°C), rendant le calcul des propriétés mécaniques imprécis avec la technique de mesure classiquement utilisée en nano-indentation. Une nouvelle technique, reposant sur la mesure de l'amplitude de la seconde harmonique du signal de déplacement, a été développée pendant cette thèse. Elle permet la détermination des propriétés mécaniques indépendamment de la mesure de l’enfoncement. Elle est donc adaptée pour des tests à haute température. Elle été expérimentée sur des matériaux homogènes (silice, PMMA), sur un matériau (monocristal de calcite) possédant une dureté plus élevée en surface (Indentation Size Effect), et sur des couches minces de PMMA déposées sur un substrat de silicium, à température ambiante. Les résultats ont montré que les propriétés mécaniques sont mesurées de façon plus précise aux faibles enfoncements. Les essais expérimentaux sur la calcite ont mis en évidence que l'Indentation Size Effect observé sur cet échantillon est mieux détecté avec la technique de la seconde harmonique. Elle permet aussi de calculer la pénétration de l'indenteur a posteriori. Une seconde technique de mesure des propriétés mécaniques, reposant sur le calcul de la dérivée de la hauteur de contact en fonction de la pénétration, a été développée. Elle permet une mesure des propriétés mécaniques des matériaux par nano-indentation plus précise que la méthode classique à température ambiante aux faibles pénétrations. Les mesures sont aussi améliorées sur les échantillons rugueux et pour les essais réalisés à haute température. / The aim of this thesis was the development of new measurement techniques based on nano-indentation, adapted for difficult experimental conditions: small penetration depths, rough surfaces, and high temperature. The thermal contact between a Berkovich indenter initially at 25 °C and a fused silica sample heated at 80 °C, in air at 60 °C, was numerically simulated by finite elements method. The results showed the necessity to heat the indenter in order to avoid effects due to the difference of temperature between the two solids. Furthermore, high temperature nanoindentation tests showed the displacement signal is greatly influenced by temperature variations (<0.1°C), resulting in imprecise mechanical properties calculation. A new experimental technique, based on the measurement of the amplitude of the second harmonic of displacement, was developed. With this method, the determination of the mechanical properties is independent of the indentation depth measurement. So, the second harmonic method is adapted to high temperature tests. It was tested on homogeneous materials (fused silica and PMMA), on a sample which is known to exhibit an Indentation Size Effect (calcite), and on thin PMMA layers deposited onto silicon wafers, at room temperature. With the second harmonic method, the mechanical properties are measured more precisely at small penetration depths. Experiments performed on the calcite sample showed that the Indentation Size Effect is more precisely measured with this new method. Furthermore, the indentation depth can be calculated “a posteriori” with second harmonic method. A second new measurement technique, based on the derivative of the contact depth with respect to the indentation depth, was developed. With this simple method, the mechanical properties are more precisely measured at room temperature at small indentation depths. Measurements are also improved on rough samples and at high temperature.
75

Modèles d'habitat statistiques comme outils d'aide à la gestion des débits des rivières insulaires tropicales : Guadeloupe, Martinique, Mayotte, Réunion / Statistical hydraulic habitat models for guiding flow management in tropical insular streams

Girard, Virginie 15 April 2013 (has links)
Les modèles d’habitat hydrauliques sont fréquemment utilisés pour prédire les impacts écologiques de la gestion des débits des rivières. Ils couplent des modèles hydrauliques des tronçons de rivières à des modèles de "préférences" des organismes pour les conditions hydrauliques de leur microhabitat (vitesses, hauteurs, forces). Les modèles d'habitat statistiques reposent sur une modélisation des distributions en fréquence des variables hydrauliques. Ils sont simples d'utilisation mais ne sont pas applicables en l'état en milieu insulaire tropical. Nous avons développé des modèles biologiques de préférences hydrauliques de 15 taxons diadromes des îles tropicales (crevettes et poissons), ainsi que des modèles hydrauliques statistiques adaptés aux rivières à forte pente et forte granulométrie. Les modèles utilisent cinq jeux de données biologiques existants (~8350 échantillons de pêches électriques, 52 rivières) et des mesures hydrauliques originales (44 rivières, 69 station×date), collectés dans quatre îles des Caraïbes (Guadeloupe, Martinique) et de l'Océan Indien (Mayotte, Réunion), en collaboration avec des partenaires locaux. Nos modèles hydrauliques statistiques prédisent les distributions de vitesses et de hauteurs d'eau observées avec plus de précision que les modèles développés en Europe continentale. Les modèles biologiques reflètent que les contraintes hydrauliques contribuent généralement faiblement à la sélection du microhabitat en milieu tropical. Néanmoins, certains taxons montrent des préférences hydrauliques significatives et comparables entre les jeux de données. Nous illustrons l'application possible des résultats pour guider la gestion des débits / Hydraulic habitat models are frequently used for predicting the ecological impacts of flow management in stream reaches. Their hydraulic component describes microhabitat hydraulics within the reach (e.g. velocity, depth); their biological component describes the "preferences" of aquatic taxa for microhabitat hydraulics. Statistical habitat models involve the modelling of the frequency distributions of hydraulic variables in reaches. Their application requires simple data, but such models are not available for insular tropical streams. We developed hydraulic preference models for 15 diadromous taxa of tropical islands (shrimps and fishes), and statistical hydraulic models for steep streams with large bed particle size. Our models are based on five available biological data sets (~8350 electrofishing units, 52 streams) and original hydraulic measurements (44 streams, 69 site×date) collected in four islands in the Caribbean region (Guadeloupe, Martinique) and the Indian Ocean (Reunion, Mayotte), in collaboration with local partners. Our hydraulic models improve the predictions of observed velocity and depth distributions when compared with previous models developed in continental Europe. Our biological models reflect that hydraulics contribute less to microhabitat selection in tropical islands than elsewhere. Nevertheless, some taxa have significant hydraulic preferences that are comparable among data sets and we illustrate a potential application of our results for guiding low flow management in tropical insular streams
76

Analyse par le calcul à la rupture de la stabilité au feu des panneaux en béton armé de grandes dimensions / Yield design based analysis of high rise reinforced concrete walls in fire

Pham, Duc Toan 15 December 2014 (has links)
Le présent travail propose et développe une méthode originale de dimensionnement vis-à-vis de l'incendie de parois de bâtiments industriels, en s'intéressant plus spécifiquement au cas des panneaux en béton armé de grande hauteur. Soumis à un fort gradient thermique, ces derniers subissent en effet des déplacements hors plan importants qui, du fait de l'excentrement du poids propre qui en résulte, vont engendrer des efforts de flexion venant s'ajouter aux efforts de compression déjà existants. Un tel changement de géométrie, d'autant plus prononcé que le panneau est de grande hauteur, combiné à une dégradation simultanée des propriétés de résistance des matériaux sous l'effet de l'élévation de température, peut conduire à un effondrement de la structure sous poids propre, bien avant par exemple l'apparition d'une instabilité de type flambement. L'approche proposée repose très largement sur la théorie du Calcul à la Rupture, appliquée d'une part à la détermination d'un diagramme d'interaction au feu caractérisant la résistance du panneau en chacune de ses sections, d'autre part à l'analyse de la ruine globale du panneau dans sa configuration déformée. Cette démarche est d'abord mise en œuvre et complètement explicitée dans le cas où le panneau peut être modélisé comme une poutre unidimensionnelle, conduisant à la détermination exacte d'un facteur adimensionnel caractérisant la stabilité de ce dernier. La généralisation de la méthode de calcul à la configuration plus réaliste, mais plus complexe, d'un panneau schématisé comme une plaque rectangulaire, est ensuite développée. Elle aboutit à un certain nombre de résultats préliminaires qui devront être confortés et affinés dans un travail ultérieur. L'approche théorique ici présentée est par ailleurs complétée par un volet expérimental (essais de flexion quatre points de dalles dans un four à maquette) qui a permis de valider au moins partiellement les évaluations du diagramme d'interaction prédites par le calcul / In this contribution, an original and comprehensive method aimed at designing vertical concrete walls submitted to fire loadings, is proposed and developed, with a special emphasis on high rise panels used in industrial buildings. Indeed, when subjected to high thermal gradients, such slender structures exhibit quite significant out-of-plane movements, resulting in an eccentricity of the gravity loads and thus to bending moments in addition to the pre-existing compressive forces. It is such a change of geometry, which is all the more pronounced as the panel is tall, combined with a temperature-induced degradation of the constituent materials strength properties, which may explain why an overall collapse of the structure may occur, well prior to buckling instability. The proposed approach is fundamentally based on the theory of yield design. This theory is first applied to the determination of an interaction diagram, characterizing the fire resistance of a reinforced concrete panel cross-section. It is then implemented as a design method for analysing the stability of the panel in its previously calculated deformed configuration. The whole procedure is explained in full details in the simplified situation when the high rise panel can be modeled as a one-dimensional beam, leading to the exact determination of a dimensionless factor characterizing the stability of the panel. The method is then extended to deal with a more realistic, but somewhat more complex, configuration of a rectangular panel. Some preliminary results, which need to be further validated in a subsequent work, are finally produced. As a necessary complement to the mostly theoretical and computational approach presented in this work, a series of four-point bending tests has been performed on reduced scale slabs placed in a furnace. The results of these tests partially validate the predicted interaction diagram of a fire loaded panel section
77

Extraction des informations sur la morphologie des milieux urbains par analyse des images satellites radars interférométriques

Aubrun, Michelle 12 1900 (has links)
No description available.
78

Des données accélérométriques au comportement dynamique des bâtiments existants / From accelerometric records to the dynamic behavior of existing buildings

Fernández Lorenzo, Guillermo Wenceslao 17 October 2016 (has links)
L'objectif de cette thèse est de simuler l'histoire temporelle de la réponse d'un bâtiment de grande hauteur sous sollicitation sismique et de proposer des méthodologies simplifiées qui reproduisent correctement une telle réponse. Initialement, un modèle tridimensionnel par éléments finis est produit afin de valider sa fiabilité pour simuler le comportement réel du bâtiment pendant les mouvements du sol, enregistrés à l'aide d'accéléromètres. Il est proposé d'améliorer la précision du modèle numérique en imposant de multiples excitations, compte-tenu des effets de basculement et de la variabilité spatiale sur la sollicitation d'entrée. L'utilisation de fonctions de Green empiriques est proposée pour simuler la réponse sismique directement à partir d'enregistrements d'événements passés, sans avoir besoin de dessins de construction ni d'étalonnage des paramètres mécaniques. Une méthode de sommation stochastique, déjà utilisée pour prédire les mouvements du sol, est adoptée pour générer des signaux synthétiques à des hauteurs différentes du bâtiment, par extension du chemin de propagation des ondes du sol à la structure. Une représentation simplifiée du bâtiment comme une poutre homogène Timoshenko est proposée pour simuler la réponse sismique directement à partir des enregistrements des vibrations ambiantes. Des paramètres mécaniques équivalents sont identifiés à l'aide de l'interférométrie par déconvolution en termes de dispersion des ondes, de fréquences naturelles et de rapport de vitesse des ondes de cisaillement et de compression dans le milieu / The aim of this thesis is to simulate the time history response of a high rise building under seismic excitation and provide simplified methodologies that properly reproduce such response. Firstly, a detailed three-dimensional finite element model is produced to validate its reliability to simulate the real behavior of the building during ground motions, recorded using accelerometers. It is proposed to improve the accuracy of the numerical model by imposing multiple excitations, considering rocking effect and spatial variability on the input motion. The use of empirical Green's functions is proposed to simulate the seismic response directly from past event records, without the need of construction drawings and mechanical parameters calibration. A stochastic summation scheme, already used to predict ground motions, is adopted to generate synthetic signals at different heights of the building, extending the wave propagation path from the ground to the structure. A simplified representation of the building as a homogeneous Timoshenko beam is proposed to simulate the seismic response directly from ambient vibration records. Equivalent mechanical parameters are identified using deconvolution interferometry in terms of wave dispersion, natural frequencies and shear to compressional wave
79

Etude théorique et expérimentale des micro-lits fluidisés : hydrodynamique et modélisation numérique / Design of micro-fluidized beds by experiments and numerical simulations : flow regims diagonis and hydrodynamic study

Quan, Haiqin 06 December 2017 (has links)
Le travail de thèse porte sur l’étude et la mise au point de nouvelles technologies et de procédés miniaturisés en lit fluidisé. Ce procédé représente une véritable rupture technologique devant les procédés à lits fluidisé traditionnels et offre de nombreux avantages : surface d’échange élevée, bon mélange gaz-solide dans le réacteur, utilisation de faible quantité de produit, coût faible... La présente étude regroupe trois études : conception des micro-lits fluidisés, diagnostic et analyse de l’hydrodynamique des couches fluidisées et modélisation numérique.Dans ce travail quatre MFBs (Micro Fluidized Bed) de 20-4 mm ont été étudiés et comparés à deux réacteurs relativement grands de 100-50 mm. Le rapport du diamètre du réacteur à la hauteur statique des particules (Hs/Dt) a été fixé entre 1-4. La vibration mécanique a été appliquée dans le réacteur de 4 mm. Une nouvelle méthode de diagnostic des régimes de fluidisation a été développée. Elle est basée sur les analyses des fluctuations de pression et le traitement du signal. La modélisation numérique suivant la méthode Eulérien-Eulérien (2D) a été développée. Les résultats obtenus permettent d’identifier six régimes d'écoulement: lit fixe, bouillonnant, bouillonnant/pistonnage, pistonnage, pistonnage/turbulent et bouillonnant/turbulent. On note une fluidisation partielle autour de Hs/Dt=1-2, tandis que le régime de pistonnage s’installe rapidement après le minimum de fluidisation à Hs/Dt=3-4. Dans le réacteur de 4 mm, la fluidisation des particules du groupe B de Geldart montre une meilleure qualité. Les résultats numériques (modélisation) montrent une très bonne concordance avec les données expérimentales / Micro-fluidized bed (MFB) exhibits great advantages such as a large specific contact surface, a fast dissipation of heat (ideal for exothermic reactions) and better mass and heat transfers, but suffers from difficulties in precise control and shows strong frictional wall effect. Present study was conducted experimentally and numerically to understand fundamental hydrodynamics in MFBs. Experimental work was carried out in four MFBs of 20-4 mm compared to two relatively large beds of 100-50 mm using three types of particles (B347: 347 μm, 2475 kg/m3; B105: 105 μm, 8102 kg/m3; A63: 63.8μm, 2437 kg/m3). The ratio of static bed height (Hs) to bed diameter (Dt) was set between 1-4. Mechanical vibration was applied to the 4 mm bed. A new method for flow regimes diagnosis was developed based on pressure fluctuation analyses, which mainly include calculating the standard deviation, autocorrelation function, probability density function, power spectral density function and time-frequency analysis. Numerical simulations were performed under Eulerian-Eulerian framework in 2D. Six flow regimes were identified: fixed bed, bubbling, bubbling/slugging, slugging, slugging/turbulent and bubbling/turbulent. Partial fluidization is encountered at Hs/Dt=1-2 while slugging prevails quickly after minimum fluidization at Hs/Dt=3-4. In the 4 mm bed, fluidization of B347 particles show better fluidization quality, while an increase in Umf is observed for B105 and A63 particles. Mechanical vibration reduces partial fluidization, thus resulting in larger ΔP and smaller Umf. A larger Umb and a delayed Uc were obtained as well. Results by simulations agree reasonably well with experimental data
80

Activité cérébrale reliée à la rétention des sons en mémoire à court-terme auditive

Nolden, Sophie 06 1900 (has links)
Une variété d’opérations cognitives dépend de la capacité de retenir de l’information auditive pour une courte période de temps. Notamment l’information auditive prend son sens avec le temps; la rétention d’un son disparu permet donc de mieux comprendre sa signification dans le contexte auditif et mène ultimement à une interaction réussite avec l’environnement. L’objectif de cette thèse était d’étudier l’activité cérébrale reliée à la rétention des sons et, ce faisant, parvenir à une meilleure compréhension des mécanismes de bas niveau de la mémoire à court-terme auditive. Trois études empiriques se sont penchées sur différents aspects de la rétention des sons. Le premier article avait pour but d’étudier les corrélats électrophysiologiques de la rétention des sons variant en timbre en utilisant la technique des potentiels reliés aux événements. Une composante fronto-centrale variant avec la charge mnésique a été ainsi révélée. Dans le deuxième article, le patron électro-oscillatoire de la rétention a été exploré. Cette étude a dévoilé une augmentation de l’amplitude variant avec la charge mnésique dans la bande alpha pendant la rétention des sons ainsi qu’une dissociation entre l’activité oscillatoire observée pendant la rétention et celle observée pendant la présentation des sons test. En démontrant des différentes modulations des amplitudes dans la bande alpha et la bande beta, cette étude a pu révéler des processus distincts mais interdépendants de la mémoire à court-terme auditive. Le troisième article a davantage visé à mieux connaître les structures cérébrales soutenant la rétention de sons. L’activité cérébrale a été mesurée avec la magnétoencéphalographie, et des localisations des sources ont été effectuées à partir de ces données. Les résultats ont dévoilé l’implication d’un réseau cérébral contenant des structures temporales, frontales, et pariétales qui était plus important dans l’hémisphère droit que dans l’hémisphère gauche. Les résultats des études empiriques ont permis de souligner l’aspect sensoriel de la mémoire à court-terme auditive et de montrer des similarités dans la rétention de différentes caractéristiques tonales. Dans leur ensemble, les études ont contribué à l’identification des processus neuronaux reliés à la rétention des sons en étudiant l’activité électromagnétique et l’implication des structures cérébrales correspondantes sur une échelle temporelle fine. / The capacity to retain auditory information for a short period of time is fundamental for a variety of cognitive operations. Sounds, in particular, often do not reveal their meaning before being integrated in their temporal context; the retention of tones that are no longer present in the environment is thus necessary for understanding the significance of auditory information. Retaining tones ultimately leads to a successful interaction with the environment. The goal of this thesis was to study brain activity related to the retention of tones, thereby providing a better understanding of low-level mechanisms related to auditory short-term memory. Three empirical studies have been conducted, each of them focusing on a different aspect of the retention of tones. The first article investigated electrophysiological correlates of the retention of tones differing in timbre using the event-related potential technique. The electrophysiological results revealed a fronto-central component that varied with memory load. In the second article, the oscillatory pattern of electric brain activity was explored using electroencephalography. The results revealed that alpha band amplitudes were modulated by memory load during retention. Furthermore, a dissociation of oscillatory activity between the retention of tones and the comparison of test tones against retained tone representations was observed. This study also revealed distinct but interrelated processes taking place at the same time by showing specific amplitude modulations in the alpha and beta bands. The third article focused more on brain areas underpinning the retention of tones. Brain activity was measured with magnetoencephalography and subsequent source localisations were performed. The results suggested the implication of a network of temporal, frontal, and parietal brain areas which was more pronounced in the right hemisphere than in the left hemisphere. The results of the empirical studies emphasized the sensory aspect of auditory short-term memory. In addition, they revealed similarities between the retention of tones differing in fundamental sound characteristics such as timbre and pitch. Considered as a whole, the studies of this thesis contributed to the identification of neural processing underlying the retention of tones by studying electromagnetic brain activity and the implication of corresponding brain areas on a fine temporal scale.

Page generated in 0.0589 seconds