• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 227
  • 86
  • 19
  • 1
  • Tagged with
  • 325
  • 173
  • 60
  • 42
  • 27
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • 17
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Modélisation mésoscopique des écoulements avec changement de phase à partir de l'équation de Boltzmann-Enskog. Introduction des effets thermiques.

Piaud, Benjamin 04 July 2007 (has links) (PDF)
Ce travail de thèse concerne la modélisation et la simulation des écoulements diphasiques avec changement de phase par des équations cinétiques de type Boltzmann. Ce travail est motivé par deux applications distinctes pour lesquelles la compréhension et l'analyse fine des mécanismes et des dynamiques de changement de phase sont nécessaires. Le premier thème concerne la mise au point de dispositifs passifs de refroidissement diphasiques pour la micro-électronique. Le seconde thématique concerne la formation de dépôts de filtration résultant de l'agrégation de particules colloïdales à la surface d'une membrane dans des procédés de filtration membranaire. Pour les applications de type colloïdal, un modèle à deux fluides est proposé en adaptant des méthodes Boltzmann-sur-Réseau de la littérature pour la résolution de l'écoulement. Enfin, dans une partie plus exploratoire, un méthode de résolution originale de l'équation de Boltzmann-Enskog est proposée afin de traiter des écoulements avec changement de phase en incluant les effets thermiques.
132

Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle

Lamarche-Perrin, Robin 14 October 2013 (has links) (PDF)
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
133

Approche multiniveau et ordonnnancement d'activités dans un contexte de production à la commande

Hernandez-Silva, Jose Fernando 25 January 2008 (has links) (PDF)
Cette thèse se situe dans le cadre de la planification de la production à moyen et court terme dans un environnement de production à la commande et s'intéresse plus particulièrement à une problématique d'ordonnancement de tâches. Elle propose une approche décisionnelle à deux niveaux permettant conjointement l'ajustement charge-capacité des ressources et l'ordonnancement des opérations appartenant à un ensemble d'Ordres de Fabrication (OF). Le niveau supérieur (macro-ordonnancement) positionne les OF sur un horizon moyen-terme discrétisé en périodes et aide le décideur à élaborer une planification agrégée optimisée compte tenu de la politique de gestion retenue (heures supplémentaires, sous-traitance, retards, etc.). Ce niveau est modélisé par un programme linéaire en variables mixtes. Des mécanismes d'agrégation sont proposés. Ils permettent d'associer au niveau supérieur des données agrégées (par macro-périodes) obtenues à partir des données détaillées (définies sur le temps continu). L'étude s'intéresse également à des extensions du modèle de macro-ordonnancement dans le cas de la prise en compte de différents types de leviers décisionnels, de la prise en compte de ressources alternatives,... Le niveau inférieur (ordonnancement) positionne finement (en temps continu, horizon court-terme) les opérations sur les ressources pouvant être utilisées. Il est chargé de "suivre" le macro-ordonnancement ayant optimisé le positionnement grossier des OF. Afin d'intégrer les deux niveaux décisionnels, différents mécanismes de "guidage" sont proposés. Ces mécanismes permettent de désagréger les décisions prises au niveau supérieur. Ces mécanismes permettent l'utilisation de logiciel d'ordonnancement standard au niveau inférieur. Des expérimentations numériques sont effectuées afin d'étudier les performances de la structure multiniveau. Ces expérimentations permettent d'apprécier le comportement de la structure décisionnelle face à différents grandeurs d'éléments c aractéristiques de l'approche : pas de discrétisation, mécanismes de guidage, taux de contraintes,...
134

Mécanismes moléculaires de l'agrégation de l'insuline induite par la surface des matériaux

Nault, Laurent 24 October 2012 (has links) (PDF)
L'agrégation protéique induite par la surface des matériaux est un phénomène important dans la stabilité des protéines thérapeutiques. En utilisant l'insuline humaine, nous avons étudié les phénomènes agrégation en présence de surfaces neutres hydrophobes ou hydrophiles et avons montré que la nucléation a lieu sur les surfaces hydrophobes que l'on soit à pH 2.5 ou 7.3. Nous avons montré que l'énergie d'activation de la nucléation est abaissée sur surface hydrophobe. De plus, il apparait que l'agitation de la solution a des effets antagonistes. En particulier, les forces hydrodynamiques de cisaillement détachent de la surface les fibres. Par Résonance Plasmonique de Surface, spectroscopie infrarouge et microscopie à fluorescence, nous avons pu définir les étapes moléculaires ayant lieu à l'interface matériaux hydrophobe/solution. L'insuline s'adsorbe tout d'abord rapidement sur la surface, puis s'accumule lentement parallèlement à une transition de la structure α initiale vers une structure β, aboutissant à la formation de fibres amyloïdes. Par la suite, nous avons étudié le mécanisme d'action d'un peptide connu pour accélérer l'agrégation de l'insuline (LVEALYL). Ce peptide s'adsorbe de façon stable sur la surface hydrophobe en structure β et facilite l'accumulation d'insuline. De plus, il apparait que la séquence du peptide n'est pas essentielle à son action car différents peptides adoptant une structure β sur la surface sont également capables d'induire l'agrégation de l'insuline. La présence de prolines aboli cette action. Ces résultats apportent d'importantes informations sur les mécanismes moléculaires d'auto-association de l'insuline. L'hydrophobicité du matériau facilite le dépliement de l'insuline adsorbée, aboutissant à l'exposition du segment LVEALYL. Cette séquence facilite la propagation du changement de conformation vers les molécules nouvellement adsorbées. Agir contre ce phénomène pourrait permettre de stabiliser les solutions protéiques.
135

Caracterisation fonctionnelle des sortases de lactococcus lactis : de l'ancrage de protéines à la biogénèse de pili

Oxaran david, Virginie 19 January 2012 (has links) (PDF)
Les bactéries lactiques (BL), communément employées en industrie agroalimentaire, font à présent l'objet d'études visant à les utiliser pour de nouvelles applications telles que le développement de vaccins vivants ou la délivrance de molécules d'intérêt biothérapeutique chez l'hôte. Dans cette optique, différents systèmes de présentation de protéines à la surface des bactéries à Gram positif ont été développés. L'un d'entre eux est basé sur l'activité d'enzymes, les sortases, liant de façon covalente les protéines à la paroi bactérienne. Nous avons utilisé la BL modèle, Lactococcus lactis, afin d'étudier les sortases, jusqu'alors étudiées essentiellement chez les bactéries pathogènes. La sortase A (SrtA) est responsable de l'ancrage d'au moins cinq protéines à motif LPxTG à la surface. Une seconde sortase, de classe C (SrtC), a été identifiée et caractérisée. Nous avons mis en évidence la capacité de L. lactis à produire des pili à sa surface qui sont polymérisés par SrtC et ancrés à la paroi par SrtA. Ces pili résultent de la polymérisation de la piline majeure YhgE qui peut être surplombée par la piline mineure de coiffe YhgD. La production de pili chez L. lactis entraîne un changement de comportement des cellules résultant à des phénotypes particuliers. Nous avons pu l'associer à l'auto-agrégation des cellules en culture liquide, à la formation de biofilms hétérogènes et aériens, et à l'adhésion à la mucine gastrique de porc. Plus précisément, YhgE a été impliquée dans l'auto-agrégation et les biofilms atypiques, et une troisième piline, dont l'appartenance au pilus n'a pas été démontrée, semble aussi impliquée dans la production de biofilms atypiques.
136

Adsorption de protéines sur des colloïdes et agrégation induite

Ramiandrisoa, Donatien 26 March 2014 (has links) (PDF)
Les colloïdes sont utilisés dans de nombreuses applications médicales tels les agents de contraste en IRM ou l'immuno-agglutination magnétique dans le diagnostic. Pour en améliorer leurs performances, l'interaction entre les particules et les milieux biologiques - en particulier les protéines - a été étudiée depuis plus de 150 ans ; mais ce phénomène n'est toujours pas correctement décrit. La première partie de cette thèse est dédiée à une des applications des colloïdes : la détection de protéines cible. Basée sur l'orientation d'agrégats magnétiques anisotropes, une nouvelle méthode a été mise au point, permettant de mesurer un signal d'agrégation uniquement proportionnel à la quantité de protéines à doser, la limite de détection est donc abaissée. Cette technique a été validée sur un système réel : la protéine C-réactive. La seconde partie de cette thèse est consacrée à l'adsorption des protéines sur les colloïdes. Le premier objectif a été la mise au point d'un protocole de mesure capable de fournir des données fiables ; l'adsorption a ainsi pu être caractérisée sur un système modèle, l'albumine de sérum bovin sur la silice. Les mesures obtenues ont ainsi permis de lever certains paradoxes et de proposer un nouveau modèle d'adsorption. Enfin, ces connaissances ont permis de comprendre comment des protéines, en s'adsorbant sur deux particules, agrègent les colloïdes. En quantité suffisante, elles peuvent également les protéger de l'agrégation, ouvrant la voie à une nouvelle méthode de stabilisation des particules.
137

Agrégation spatiotemporelle pour la visualisation de traces d'exécution / Spatiotemporal Aggregation for Execution Trace Visualization

Dosimont, Damien 10 June 2015 (has links)
Les techniques de visualisation de traces sont fréquemment employées par les développeurs pour comprendre, déboguer, et optimiser leurs applications.La plupart des outils d'analyse font appel à des représentations spatiotemporelles, qui impliquent un axe du temps et une représentation des ressources, et lient la dynamique de l'application avec sa structure ou sa topologie.Toutefois, ces dernières ne répondent pas au problème de passage à l'échelle de manière satisfaisante. Face à un volume de trace de l'ordre du Gigaoctet et une quantité d'évènements supérieure au million, elles s'avèrent incapables de représenter une vue d'ensemble de la trace, à cause des limitations imposées par la taille de l'écran, des performances nécessaires pour une bonne interaction, mais aussi des limites cognitives et perceptives de l'analyste qui ne peut pas faire face à une représentation trop complexe. Cette vue d'ensemble est nécessaire puisqu'elle constitue un point d'entrée à l'analyse~; elle constitue la première étape du mantra de Shneiderman - Overview first, zoom and filter, then details-on-demand -, un principe aidant à concevoir une méthode d'analyse visuelle.Face à ce constat, nous élaborons dans cette thèse deux méthodes d'analyse, l'une temporelle, l'autre spatiotemporelle, fondées sur la visualisation. Elles intègrent chacune des étapes du mantra de Shneiderman - dont la vue d'ensemble -, tout en assurant le passage à l'échelle.Ces méthodes sont fondées sur une méthode d'agrégation qui s'attache à réduire la complexité de la représentation tout en préservant le maximum d'information. Pour ce faire, nous associons à ces deux concepts des mesures issues de la théorie de l'information. Les parties du système sont agrégées de manière à satisfaire un compromis entre ces deux mesures, dont le poids de chacune est ajusté par l'analyste afin de choisir un niveau de détail. L'effet de la résolution de ce compromis est la discrimination de l'hétérogénéité du comportement des entités composant le système à analyser. Cela nous permet de détecter des anomalies dans des traces d'applications multimédia embarquées, ou d'applications de calcul parallèle s'exécutant sur une grille.Nous avons implémenté ces techniques au sein d'un logiciel, Ocelotl, dont les choix de conception assurent le passage à l'échelle pour des traces de plusieurs milliards d'évènements. Nous proposons également une interaction efficace, notamment en synchronisant notre méthode de visualisation avec des représentations plus détaillées, afin de permettre une analyse descendante jusqu'à la source des anomalies. / Trace visualization techniques are commonly used by developers to understand, debug, and optimize their applications.Most of the analysis tools contain spatiotemporal representations, which is composed of a time line and the resources involved in the application execution. These techniques enable to link the dynamic of the application to its structure or its topology.However, they suffer from scalability issues and are incapable of providing overviews for the analysis of huge traces that have at least several Gigabytes and contain over a million of events. This is caused by screen size constraints, performance that is required for a efficient interaction, and analyst perceptive and cognitive limitations. Indeed, overviews are necessary to provide an entry point to the analysis, as recommended by Shneiderman's emph{mantra} - Overview first, zoom and filter, then details-on-demand -, a guideline that helps to design a visual analysis method.To face this situation, we elaborate in this thesis several scalable analysis methods based on visualization. They represent the application behavior both over the temporal and spatiotemporal dimensions, and integrate all the steps of Shneiderman's mantra, in particular by providing the analyst with a synthetic view of the trace.These methods are based on an aggregation method that reduces the representation complexity while keeping the maximum amount of information. Both measures are expressed using information theory measures. We determine which parts of the system to aggregate by satisfying a trade-off between these measures; their respective weights are adjusted by the user in order to choose a level of details. Solving this trade off enables to show the behavioral heterogeneity of the entities that compose the analyzed system. This helps to find anomalies in embedded multimedia applications and in parallel applications running on a computing grid.We have implemented these techniques into Ocelotl, an analysis tool developed during this thesis. We designed it to be capable to analyze traces containing up to several billions of events. Ocelotl also proposes effective interactions to fit with a top-down analysis strategy, like synchronizing our aggregated view with more detailed representations, in order to find the sources of the anomalies.
138

Agrégation et dissémination de données dans un réseau véhiculaire VANET. / Data Dissemination and Aggregation in Vehicular Adhoc Network

Allani, Sabri 02 November 2018 (has links)
Cette thèse traite la problématique de la dissémination et l’agrégation des données dans un contexte de réseaux VANET (Vehicle Ad-Hoc Networks). Cette problématique est fort intéressante, toujours d’actualité dans un monde de plus en plus urbanisé. En effet, d’un côté la dissémination permet d’informer les véhicules mobiles des principaux événements en temps utile, et de l’autre côté l’agrégation permet de résumer plusieurs données émanant de sources différentes concernant le même événement. Le challenge de la dissémination consiste à calculer la zone de relevance d’un événement, de délivrer les messages aux véhicules de cette zone, et de continuer à délivrer les messages en continu aux véhicules de cette zone. Le challenge de l’agrégation consiste essentiellement à sélectionner les messages à agréger et à qualifier les messages provenant de véhicules lointains. Pour résoudre le problème de dissémination nous proposons un nouveau protocole de dissémination des données dans les réseaux VANET. La principale idée de ce protocole est basée sur la définition de zones de relevance ZOR (zone of relevance of a région) pour la mesure de l’intérêt d’une zone par rapport à un évènement donné, et la définition de split Map permettant de décomposer une grande région en un ensemble de ZORs. L’approche de calcul des ZORs est formalisée, elle est basée sur les techniques de greedy pour l’extraction de la couverture pertinente. Le protocole de dissémination présenté sous forme de diagramme Flowchart qui résumé les activités lorsque qu’un véhicule est en mouvement, un événement est détecté. La performance du protocole proposé est évaluée et comparé au protocole Slotted1-Persistence à travers un environnement de simulations et une topologie réelle de routes de la ville de Bizerte en Tunisie. Les résultats de simulation sont présentés et discutés.D’autre part, certaines applications VANET, par exemple le système d’information de trafic (TIS), nécessitent une agrégation de données pour informer les véhicules des conditions de circulation, ce qui réduit les embouteillages et par conséquent les émissions de CO2 Par conséquent, la conception d'un protocole d'agrégation efficace combinant des informations de trafic corrélées telles que l'emplacement, la vitesse et la direction, appelées données flottantes sur les voitures (FCD), pose un problème complexe. Dans cette thèse, nous introduisons un nouveau protocole d’agrégation de données dans un réseau VANET appelé SDDA (Smart Directional Data Aggregation). Ce protocole est dédié aussi bien à l’échange de données dans un contexte urbain et autoroutier. Le protocole proposé est basé sur une sélection des messages à agréger. Trois principaux filtres ont été utilisés : filtrage basé sur la direction des véhicules, filtrage basé sur la limitation de vitesse, et filtrage basé sur l’élimination des messages dupliqués. Trois algorithmes d’agrégation sont proposés, ils visent à optimiser l’algorithme de SOTIS. Les trois algorithmes traitent des cas de routes unidirectionnelles, bidirectionnelles et les réseaux urbains. A l’image du chapitre précédent, la performance des algorithmes proposés sont évaluées à travail un travail de simulation et différents résultats sont présentés et discutés. / Since the last decade, the emergence of affordable wireless devices in vehicle ad-hoc networks has been a key step towards improving road safety as well as transport efficiency. Informing vehicles about interesting safety and non-safety events is of key interest. Thus, the design of an efficient data dissemination protocol has been of paramount importance. A careful scrutiny of the pioneering vehicle-to-vehicle data dissemination approaches highlights that geocasting is the most feasible approach for VANET applications, more especially in safety applications, since safety events are of interest mainly to vehicles located within a specific area, commonly called ZOR or Zone Of Relevance, close to the event. Indeed, the most challenging issue in geocast protocols is the definition of the ZOR for a given event dissemination. In this thesis, our first contribution introduces a new geocast approach, called Data Dissemination Protocol based on Map Splitting(DPMS). The main thrust of DPMS consists of building the zones of relevance through the mining of correlations between vehicles’ trajectories and crossed regions. To do so, we rely on the Formal Concept Analysis (FCA), which is a method of extracting interesting clusters from relational data. The performed experiments show that DPMS outperforms its competitors in terms of effectiveness and efficiency. In another hand, some VANET applications, e.g., Traffic Information System (TIS), require data aggregation in order to inform vehicles about road traffic conditions, which leads to reduce traffic jams and consequently CO2 emission while increasing the user comfort. Therefore, the design of an efficient aggregation protocol that combines correlated traffic information like location, speed and direction known as Floating Car Data (FCD) is a challenging issue. In this thesis, we introduce a new TIS data aggregation protocol called Smart Directional Data Aggregation (SDDA) able to decrease the network overload while obtaining high accurate information on traffic conditions for large road sections. To this end, we introduce three levels of messages filtering: (i) filtering all FCD messages before the aggregation process based on vehicle directions and road speed limitations, (ii) integrating a suppression technique in the phase of information gathering in order to eliminate the duplicate data, and (iii) aggregating the filtered FCD data and then disseminating it to other vehicles. The performed experiments show that the SDDA outperforms existing approaches in terms of effectiveness and efficiency.
139

Ecologie thermique et thermorégulation sociale des éléphants de mer austraux (Mirounga leonina) en phase de mue / Thermal ecology and social thermoregulation of Southern elephant seals (Mirounga leonina) during their moult

Chaise, Laureline 08 December 2017 (has links)
Le cycle de vie pélagique annuel des Phocidés est interrompu à deux reprises pour la reproduction et la mue, à terre ou sur la banquise. La mue est une étape essentielle pour le renouvellement du poil et de l’épiderme chez certains Monachinae. Les éléphants de mer austraux (Mirounga leonina) forment des agrégations dans des flaques de boue, ou « souilles », lorsqu’ils muent. La mue, chez cette espèce, entraîne des pertes thermiques importantes par vasodilatation périphérique. La thermorégulation sociale (i.e. agrégation d’animaux) a permis à de nombreuses espèces d’oiseaux et de mammifères d’économiser de l’énergie. Néanmoins, l’étude du comportement et de l’énergétique de la mue chez l’éléphant de mer austral a été jusqu’ici peu développée. Notre travail de recherche repose sur l’hypothèse que le comportement d’agrégation des éléphants de mer austraux répondrait aux mêmes déterminants que le mécanisme de thermorégulation sociale et entraînerait des bénéfices thermiques et énergétiques. Nous avons étudié le comportement de mue des éléphants de mer austraux femelles en lien avec les paramètres environnementaux locaux et physiologiques individuels. Nous avons mis en évidence que la sélection de l’habitat, les déplacements à terre et le comportement d’agrégation dépendent de l’avancement de la mue, du type d’habitat et des conditions météorologiques. Au pic de la mue, les pertes thermiques sont augmentées, les femelles se déplacent moins et s’agrègent davantage. De plus, les éléphants de mer s’agrègent en plus grand nombre lorsque les conditions météorologiques se dégradent, ceci principalement dans les « souilles ». Cependant, ils augmentent aussi leurs déplacements lorsque la température de l’air ressentie (i.e. combinaison température-vitesse du vent) est basse ou lorsque l’insolation augmente. De plus, les individus agrégés ont une température corporelle (stomacale et de surface) en moyenne plus basse que les individus isolés. Le taux métabolique augmenté pendant la mue serait lié aux contraintes thermiques et à une activité hormonale augmentée. Bien que le comportement d’agrégation n’ait pu être mis en relation avec la perte de masse, celui-ci est corrélé à une diminution du taux métabolique. Ainsi, les éléphants de mer femelles sont sensibles aux variations environnementales et adapteraient leur comportement en diminuant leurs dépenses énergétiques. Le comportement d’agrégation permettrait de diminuer le coût de thermorégulation par diminution des pertes thermiques. Les « souilles » sont thermiquement avantageuses et permettraient d’optimiser la diminution des pertes thermiques par agrégation et de favoriser la mue. La diminution des pertes thermiques permettrait la modulation de la température interne des individus agrégés (baisse du coût de la thermorégulation), et l’énergie économisée pourrait être ainsi réallouée à la mue. Il semblerait que des stratégies individuelles de compromis entre déplacements et agrégation soient mises en place en fonction des réserves énergétiques des individus et en vue de diminuer leurs dépenses énergétiques. De nouvelles méthodes prometteuses de mesures physiologiques chez cette espèce et appliquées sur le terrain (mesure de la fréquence cardiaque par implant sous-cutané et de la composition corporelle par bio-impédancemétrie) permettraient, une fois standardisées, d’évaluer le métabolisme des éléphants de mer austraux au cours de leur mue ainsi que leur dépense énergétique, en lien avec les variations individuelles. / Annual life cycle of Phocids at sea is interrupted twice for reproduction and moult on land. The moult, an energetically costly phase, is essential for the renewal of hair, as well as epidermis in some monachine seals (Mirounga and Monachus). Southern elephant seals (Mirounga leonina) huddle in mud pools, or “wallows”, while moulting on land. Peripheral vasodilatation through the isolating layer of the blubber to renew skin cells during the moult creates major heat loss, that’s why this species moult on land, fasting, rather than staying in water. Many bird and mammal species developed an energy saving strategy based on social thermoregulation in order to decrease heat loss, especially in extreme environments or particular physiological stages. However, few studies have investigated behavioural and physiological adaptations of southern elephant seals during the moult. Our study rests on the hypothesis that huddling behaviour of moulting elephant seals follows the same determinants and allows equivalent thermal and energetic benefices than social thermoregulation. We studied behavioural adaptations on land of female southern elephant seals during five moult seasons, linked to local environmental and individual physiological variations. Our results show that habitat selection, distances moved on land and aggregation behaviour are influenced by the stage of the moult, the habitat type and meteorological conditions. At the peak of moult, heat loss and aggregation behaviour are both increased, as movements on land are decreased. Moreover, aggregation rate and aggregations size increase when local weather is deteriorated, mainly in “wallows”. However, distances moved increase when windchill is low or solar radiation is high. Furthermore, aggregated seals have a lower body temperature (skin and stomach) than isolated seals. The elevated metabolic rate observed would be linked to thermal constraints and an elevated hormonal metabolism. Although we found no correlation between aggregation and body mass loss, individual aggregation rate was negatively correlated to metabolic rate. Therefore, elephant seals are sensible to environmental conditions and would adapt their behaviour to decrease energy expenditure. Aggregation behaviour allows to decrease heat loss and thus thermoregulation cost. “Wallows” offer thermal advantages and induce an increased moult rate, supposedly by maximising the decrease in heat loss when aggregated. Decreased heat loss would allow an adjustment in body temperature in aggregated seals and energy save from thermoregulation could be reallocated to the moult process. Elephant seals seem to balance movements on land and aggregation, in relation to individual body reserves, in order to decrease energy expenditure. New promising methods to record physiological parameters in the field (heart rate method and the use of bio-impedancemetry) need to be calibrate in this species to allow more precised moult metabolism and energy expenditure records, linked to individual variations.
140

Statistique pour l’anticipation des niveaux de sécurité secondaire des générations de véhicules / Statistics for anticipating the levels of secondary safety for generations of vehicles

Ouni, Zaïd 19 July 2016 (has links)
La sécurité routière est une priorité mondiale, européenne et française. Parce que les véhicules légers (ou simplement “les véhicules”) sont évidemment l’un des acteurs principaux de l’activité routière, l'amélioration de la sécurité routière passe nécessairement par l’analyse de leurs caractéristiques accidentologiques. Si les nouveaux véhicules sont développés en bureau d’étude et validés en laboratoire, c’est la réalité accidentologique qui permet de vraiment cerner comment ils se comportent en matière de sécurité secondaire, c’est-à-dire quelle sécurité ils offrent à leurs occupants lors d’un accident. C’est pourquoi les constructeurs souhaitent procéder au classement des générations de véhicules en fonction de leurs niveaux de sécurité secondaire réelle. Nous abordons cette thématique en exploitant les données nationales d’accidents corporels de la route appelées BAAC (Bulletin d’Analyse d’Accident Corporel de la Circulation). En complément de celles-ci, les données de parc automobile permettent d’associer une classe générationelle (CG) à chaque véhicule. Nous élaborons deux méthodes de classement de CGs en termes de sécurité secondaire. La première produit des classements contextuels, c’est-à-dire des classements de CGs plongées dans des contextes d’accident. La seconde produit des classements globaux, c’est-`a-dire des classements de CGs déterminés par rapport à une distribution de contextes d’accident. Pour le classement contextuel, nous procédons par “scoring” : nous cherchons une fonction de score qui associe un nombre réel à toute combinaison de CG et de contexte d’accident ; plus ce nombre est petit, plus la CG est sûre dans le contexte d’accident donné. La fonction de score optimale est estimée par “ensemble learning”, sous la forme d’une combinaison convexe optimale de fonctions de score produites par une librairie d’algorithmes de classement par scoring. Une inégalité oracle illustre les performances du méta-algorithme ainsi obtenu. Le classement global est également basé sur le principe de “scoring” : nous cherchons une fonction de score qui associe à toute CG un nombre réel ; plus ce nombre est petit, plus la CG est jugée sûre globalement. Des arguments causaux permettent d’adapter le méta-algorithme évoqué ci-dessus en s’affranchissant du contexte d’accident. Les résultats des deux méthodes de classement sont conformes aux attentes des experts. / Road safety is a world, European and French priority. Because light vehicles (or simply“vehicles”) are obviously one of the main actors of road activity, the improvement of roadsafety necessarily requires analyzing their characteristics in terms of traffic road accident(or simply “accident”). If the new vehicles are developed in engineering department and validated in laboratory, it is the reality of real-life accidents that ultimately characterizesthem in terms of secondary safety, ie, that demonstrates which level of security they offer to their occupants in case of an accident. This is why car makers want to rank generations of vehicles according to their real-life levels of safety. We address this problem by exploiting a French data set of accidents called BAAC (Bulletin d’Analyse d’Accident Corporel de la Circulation). In addition, fleet data are used to associate a generational class (GC) to each vehicle. We elaborate two methods of ranking of GCs in terms of secondary safety. The first one yields contextual rankings, ie, rankings of GCs in specified contexts of accident. The second one yields global rankings, ie, rankings of GCs determined relative to a distribution of contexts of accident. For the contextual ranking, we proceed by “scoring”: we look for a score function that associates a real number to any combination of GC and a context of accident; the smaller is this number, the safer is the GC in the given context. The optimal score function is estimated by “ensemble learning”, under the form of an optimal convex combination of scoring functions produced by a library of ranking algorithms by scoring. An oracle inequality illustrates the performance of the obtained meta-algorithm. The global ranking is also based on “scoring”: we look for a scoring function that associates any GC with a real number; the smaller is this number, the safer is the GC. Causal arguments are used to adapt the above meta-algorithm by averaging out the context. The results of the two ranking procedures are in line with the experts’ expectations.

Page generated in 0.0982 seconds