• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6910
  • 2203
  • 1504
  • 11
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 10836
  • 10836
  • 3622
  • 2988
  • 2916
  • 1945
  • 1927
  • 1786
  • 1463
  • 1359
  • 1147
  • 1091
  • 1089
  • 1079
  • 1078
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

A methodology for the application of an automated and interactive reification process in a virtual Community of Practice

Rauffet, Philippe 09 October 2007 (has links) (PDF)
Communities of practices are particular and identified knowledge networks involved in a new global, virtual and digital framework. The study of their specific characteristics, the Legitimate Peripheral Participation and the duality Reification/Participation, provides the necessary background to understand and formalize the barriers and the limits in this new context. <br />In order to overcome these ones, the analysis of the tools and the methods for computerized reification (content analysis, information architecture, information visualization) and for enrichment and assessment of content and users (Human-Computer Interactions, Collaborative filtering) enables to develop a methodology to support the application of an automated and interactive reification process in a virtual Communities of Practices.
282

Modélisation multi-échelle des structures composites, comportement en compression et lien avec les procédés

Drapier, Sylvain 17 October 2002 (has links) (PDF)
Couplages entre comportement en compression et instabilités multi-échelle; modélisation des procédés de mise en oeuvre des composites
283

Propagation d'ondes acoustiques guidées dans les milieux granulaires

Bonneau, Lenaïc 02 March 2009 (has links) (PDF)
Dans un milieu granulaire, la géométrie du contact entre grains induit une dépendance en pression non-linéaire des modules élastiques. Dans un milieu granulaire sous gravité avec une surface libre, la pression augmente avec profondeur. Il en résulte que seules des ondes de surface peuvent se propager. Nous montrons théoriquement que ce système est un guide d'onde à gradient d'indice dans lequel se propagent des ondes transverses et sagittales. Elles se décomposent selon une série discrète mais infinie de modes dont nous avons calculé la relation de dispersion. Leur vitesse augmente faiblement avec leur indice comme n1/6 et rend difficile l'interprétation des mesures. En profondeur finie, un guide d'onde géométrique se superpose au précédent. Les modes modifiés présentent une fréquence de coupure. Expérimentalement, l'émission de paquets d'ondes gaussiens dans un canal (guide d'onde géométrique) a permis d'isoler le mode de surface fondamental et de tracer sa relation dispersion. L'exposant de sa loi d'échelle valide le point de vue du de la théorie de champ moyen et contredit l'hypothèse d'une situation isostatique au voisinage de la surface libre. Cependant, le module de cisaillement est anormalement faible. Un écoulement granulaire gravitaire entraîné dans un silo lisse génère une émission sonore spontanée. Nous montrons expérimentalement et théoriquement qu'elle résulte d'une instabilité convective pour laquelle la friction amplifie et sélectionne la fréquence. Son développement aboutit à la formation d'ondes de choc. Nous pensons que cette instabilité pourrait expliquer le chant des dunes ou le déclenchement dynamique des séismes.
284

Comportement des sédiments marins de grande profondeur : approche multiéchelle

Hammad, Tammam 01 November 2010 (has links) (PDF)
Une analyse expérimentale approfondie avec une approche micro macro a été réalisée sur un matériaucomposé d'un mélange d'argile Kaolinite/Smectite. L'étude a permis de montrer à l'échelle macroscopiquecomme à l'échelle microscopique un comportement particulièrement sensible à la proportion de smectitedans le mélange. La kaolinite (Kaolinite P300) est bien connue du point de vu de sa caractérisation et deson comportement, la smectite (également nommée argile grecque) est de type calcique et a égalementfait l'objet de plusieurs études.Dès 35% de smectite dans le mélange, les résultats sur chemin triaxial montrent que le comportementapproche considérablement celui de la smectite. Par ailleurs, l'investigation à l'échelle microscopique (aumoyen de Microscope Electronique à Balayage complétée par une analyse de diffractions des rayons X)réalisé sur les échantillons après l'essai, met en évidence le fait que, lorsqu'elle dépasse un certain seuil, lafraction en smectite favorise le développement de plans de glissement. Ces plans apparaissent clairementsous forme de groupes de particules de smectite orientées.L'analyse microstructurale utilisée est basée sur une méthode rigoureuse, développée dans le cadre decette thèse, avec un traitement d'images automatisé permettant de fournir des résultats quantitatifs.Cette démarche d'investigation multi‐échelles a été employée afin caractériser le comportement d'unsédiment marin prélevé au large de Golfe de Guinée par 700 m de profondeur d'eau. L'étude, initialementmenée dans le cadre du projet CLAROM (2002‐2005), intéresse l'industrie Offshore. Le sédiment naturelcontient jusqu'à 60% de proportion argileuse avec approximativement 15% de smectite et 50% dekaolinite.
285

Analyse et modélisation de l'impact de la météorologie sur le trafic routier

Billot, Romain 08 December 2010 (has links) (PDF)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles.
286

Contribution à l'analyse d'ordonnançabilité des applications temps-réel multiprocesseurs

Malo, Sadouanouan 09 December 2010 (has links) (PDF)
Les applications temps réel, le plus souvent dédiées au contrôle de procédé, sont soumises à des contraintes temporelles strictes, destinées à garantir la sécurité et la cohérence du procédé contrôlé. Les applications temps réel étant des applications multi tâches, elles doivent être ordonnancées, le critère sine qua non de qualité de la stratégie d'ordonnancement étant la garantie du respect des contraintes temporelles. Ces applications sont de plus en plus souvent déployées sur des architectures multiprocesseurs. Le problème de l'ordonnancement doit donc être posé dans ce contexte, où de nombreux problèmes doivent encore être abordés. Notons tout d'abord que dans le cas multiprocesseur, il n'existe pas d'ordonnancement en ligne optimal dans le cas général, le problème de l'ordonnancement est NP-complet, et des anomalies d'ordonnancement apparaissent même lorsque l'on ne considère que des tâches indépendantes (une durée d'exécution plus courte que prévue peut provoquer une faute temporelle). Nous avons envisagé de prendre en compte la possibilité que des pannes matérielles surviennent. Nous avons étudié les mécanismes de reprise après la panne d'un processeur, dans le cas où l'application est ordonnancée par EDF, puis par un algorithme P-équitable. Ces mécanismes nécessitent de disposer d'un certain nombre de résultats généraux. Tout d'abord, nous avons étendu la définition de la P-équité à un contexte plus large que celui de la littérature, à savoir aux tâches à départs différés et à échéances contraintes, puis nous avons établi une condition suffisante d'ordonnançabilité dans ce contexte, dont nous avons étudié les performances à l'aide de simulations. Enfin, nous avons proposé un protocole efficace de gestion des flux apériodiques qui s'appuie sur une distribution P-équitable des temps creux. Cette répartition peut être obtenue soit en ordonnançant les tâches périodiques par une stratégie P-équitable quand le contexte le permet, soit via une analyse hors-ligne à base de réseaux de Petri. Nous avons proposé une technique d'extraction qui permet de forcer la répartition équitable des temps creux.
287

Approximation des temps de réponse des tâches sporadiques à priorité fixe dans les systèmes monoprocesseurs

Nguyen, Thi Huyen Chau 25 November 2010 (has links) (PDF)
Deux techniques sont utilisées pour vérifier que des tâches temps réel respectent bien leurs échéances temporelles : les tests d'ordonnançabilité qui renvoient un résultat binaire (ordonnançable ou non) et les calculs de temps de réponse (Response Time Analysis - RTA) qui déterminent la longueur du plus long intervalle de temps entre le réveil et la terminaison d'une tâche. Ces deux approches ont une complexité pseudo-polynomiale et notons qu'aucun algorithme polynomial n'est connu. Dans ce contexte, elles ne sont pas particulièrement appropriées pour la conception intéractive des systèmes temps réel ou pour analyser des systèmes distribués à l'aide d'une analyse holistique. Dans de tels scénarios, un algorithme pseudo-polynomial est lent, puisque les calculs des temps de réponse des tâches sont exécutées à de nombreuses reprises. De plus, pour certains systèmes temps réels, tels que dans les systèmes de contrôle-commande, il est nécessaire de connaître le pire temps de réponse des tâches et non seulement la décision binaire sur l'ordonnançabilité des tâches. Dans ce contexte, il peut être acceptable d'utiliser un algorithme plus rapide qui fournit une analyse approchée au lieu d'utiliser des analyses reposant sur des calculs exacts. Comme cette approximation va introduire du pessimisme dans le processus de décision, il est souhaitable de le quantifier d'une manière à définir un compromis entre le temps de calcul et l'exigence de ressource du processeur. C'est la raison pour laquelle, dans ce travail, nous proposons des algorithmes pour calculer efficacement des bornes supérieures des pires temps de réponse et nous présentons des résultats sur leurs qualités dans le pire cas (analyse de compétitivité avec augmentation de ressource) et en moyenne (simulations).
288

Développement d'une méthode de modélisation pour l'évaluation de la performance de stratégies de sécurité incendie

Muller, Anne 08 December 2010 (has links) (PDF)
Aujourd'hui en France, l'évaluation de la performance de stratégies de sécurité à déployer pour mettre un bâtiment en sécurité vis-à-vis de l'incendie repose sur une étude d'ingénierie en sécurité incendie. Cette étude a pour objectif l'estimation du risque incendie pour différentes stratégies, et pour des scénarios d'incendies jugés pertinents. Pour parvenir à cette estimation, le Centre Scientifique et Technique du Bâtiment français (CSTB) a mis au point un outil de simulation appelé SCHEMA-SI. Cet outil utilise des réseaux de Petri prédicat-transition différentiels orientés objets et des simulations de Monte Carlo pour générer de multiples scénarios d'incendie. Ces scénarios sont ensuite utilisés pour évaluer le risque incendie encouru avec une stratégie de sécurité. La stratégie est alors jugée d'autant plus performante que le risque incendie est faible. L'objectif de la thèse consiste à contribuer au développement d'une méthode d'analyse de risque incendie utilisant l'outil de simulation SCHEMA-SI. La réflexion a débuté par la définition de ce que devrait être cette méthode. A ce stade, il est apparu que l'une des difficultés que la méthode doit surmonter est celle de la mise en donnés du problème par un groupe d'acteurs impliqués dans la sécurité incendie du bâtiment étudié. Pour résoudre cette difficulté, une méthode de modélisation spécifique a été construite. Cette méthode, baptisée ISI-Systema, repose sur deux fondements principaux : d'une part, un langage graphique de modélisation permettant au groupe d'acteurs de réfléchir à la mise en données du problème en s'appuyant sur une approche systémique ; d'autre part, une démarche de traduction des modèles graphiques obtenus avec le langage systémique en réseaux de Petri compatibles avec SCHEMA-SI.Enfin, une application pratique de cette méthode de modélisation est proposée.
289

Strategical and multidisciplinary steering of aeronautical projects on the basis of shared value model and innovation process

Rianantsoa, Ndrianarilala 12 June 2012 (has links) (PDF)
The mass production of aircrafts has been mainly led by the objective of both maximizing technological performances and minimizing the manufacturing costs. Within also the constraints of safety and security rules defined by certification organisms, the traditional innovation management has consisted above all in implementing a "technology-push" approach. New developed aircrafts have been then mostly driven by Research and Technology projects outputs. Nevertheless, current market competitiveness and complexity lead to change this approach. The needs of aeronautical customers evolve, change and become diversified, which raise multiple specific profiles to be taken into account as early as possible in today's development programs. In order to ensure high value and differentiation perception by all the stakeholders, the innovation policy has to shift from mass production to mass customization, and to integrate both "market-read" and 'technology-push" approaches in the preliminary phase of innovation. The goal of this PhD thesis is to provide the aircraft program managers with a methodological support, named Concept-to-Value, to steer by value the so called Fuzzy Front End of Innovation stage in the literature. At the bridge between the Product Planning and Conceptual Design research works, our contribution improves the existing methodologies on the Business and Engineering domains integration. Concept-to-Value brings a more agile and integrated collaboration of multidisciplinary players: a common language and value model represent their innovation Knowledge, Problems and Solutions. Finally, a convergence process is also defined to conduct the preliminary phase and to deliver high value aircraft concepts.
290

Modélisation 0D de la combustion des carburants alternatifs dans les moteurs à allumage commandé

Bougrine, Sabre 22 June 2012 (has links) (PDF)
Pour satisfaire les exigences environnementales et d'agrément de conduite, le moteur automobile a évolué en une vingtaine d'années en un système très complexe combinant de nombreux composants de haute technologie avec des stratégies de contrôle très élaborées. L'optimisation et le contrôle de ce système sont alors devenus de véritables challenges pour les constructeurs automobiles. Ces derniers points sont aujourd'hui d'autant plus complexes que le contexte actuel de raréfaction des ressources impose de plus en plus le couplage ou le remplacement des carburants conventionnels par des carburants alternatifs tels que l'éthanol, le gaz naturel ou encore l'hydrogène. Ces nouveaux carburants présentent, en plus de leur intérêt économique, un certain nombre de propriétés physico-chimiques favorisant un meilleur rendement du moteur ainsi que la réduction des gaz à effet de serre. L'élaboration de ces nouveaux moteurs est finalement rendue possible par l'utilisation de dispositifs physiques et numériques de plus en plus sophistiqués. Dans ce contexte, les outils de simulation système destinés aux groupes motopropulseurs se sont démocratisés et peuvent aujourd'hui être utilisés à toutes les étapes de développement des moteurs, du choix de l'architecture au développement des stratégies de contrôle et à la calibration. Cependant, l'efficacité de tels outils demande encore à être améliorée afin de fournir un haut niveau de prédictivité couplé à un temps de calcul proche du temps réel. Les travaux réalisés lors de cette thèse ont visé à contribuer au développement du modèle de combustion 0-dimensionnel CFM1D (Coherent Flame Model) afin d'améliorer la prédiction du dégagement d'énergie, des polluants et des phénomènes d'auto-inammation (AI) dans les moteurs à allumage commandé lorsque des variations de la composition du carburant sont considérées. Le formalisme CFM distingue deux zones : les gaz frais et les gaz brûlés qui sont séparés par un front de flamme et qui sont entièrement décrits par leur masse, température et composition. Dans ce formalisme, le taux de consommation des espèces est directement lié aux processus de combustion et de post-oxydation assujettis aux mécanismes de chimie et de turbulence. Dans la version initiale du CFM1D, ces mécanismes sont représentés par des approches simples pouvant souffrir d'un manque de prédictivité. Ainsi, la prédiction de la formation de polluants peut être limitée par les chimies simples ou réduites la décrivant. Ces dernières sont en effet généralement définies dans des domaines de validité restreints en température, pression et composition. De la même manière, le calcul de la vitesse de flamme laminaire, de l'étirement de la flamme ou encore des éventuels délais d'auto-inammation intervenant dans l'évaluation du dégagement d'énergie met en jeux des corrélations phénoménologiques initialement développées sur un nombre limités de points de validation. Toutes ces limitations peuvent finalement entraîner une mauvaise réaction du modèle de combustion à des variations thermodynamiques ou de compositions et ont donc nécessite un certain nombre d'améliorations présentées dans ce manuscrit. L'originalité des développements réside dans l'intégration de chimie complexe dans le modèle CFM1D en utilisant des méthodes inspirées de récents travaux de CFD (Computational Fluid Dynamics) 3D.

Page generated in 0.1116 seconds