• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 43
  • 15
  • Tagged with
  • 166
  • 166
  • 83
  • 52
  • 45
  • 44
  • 34
  • 32
  • 30
  • 30
  • 23
  • 22
  • 21
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Pilotage des cycles limites dans les systèmes dynamiques hybrides. Application aux alimentations électriques statiques.

Patino, Diego 06 February 2009 (has links) (PDF)
Cette thèse s'intéresse au pilotage des cycles limites pour une classe particulière de systèmes hybrides (SDH) : les systèmes commutés cycliques. La thématique des SDH est née du constat d'insuffisance des modèles dynamiques classiques pour décrire les comportements lorsque des aspects évènementiels interviennent. Une classe particulièrement importante de SDH est formée par celle qui présente un régime permanent cyclique. Ces systèmes ont des points de fonctionnement non auto-maintenables : il n'existe pas de commande qui maintienne le système sur ce point. Le maintien n'est assuré qu'en valeur moyenne, en effectuant un cycle dans un voisinage du point par commutation des sous systèmes. L'établissement d'une loi de commutation pour cette classe de systèmes doit répondre aux objectifs de stabilité et de performance dynamique, mais doit également garantir la satisfaction de critères liés à la forme d'onde. A l'heure actuelle, peu de méthodes de commande prennent en compte le caractère cyclique du système. Les travaux de cette thèse ont pour objectif de développer des méthodes génériques et robustes pour piloter cette classe de systèmes. Les algorithmes proposés doivent également pouvoir être implémenté en temps réels. On modélise le système comme un système non - linéaire affine en la commande dont la loi de commande apparait dans le modèle. Ce type de modélisation permet d'envisager deux types de synthèse : l'une à base de commande prédictive et l'autre à base de commande optimale. Ce travail est validé par une partie applicative sur des manipulations dans le CRAN et dans des laboratoires du réseau d'excellence européenne HYCON dans le cadre duquel s'est déroulé cette étude.
82

Optimisation du procédé de pliage sur presses de pièces en tôles à haute limite d'élasticité

Bahloul, Riadh 12 1900 (has links) (PDF)
Les ferrures d'ancrage sont des pièces de sécurité automobile qui doivent résister à des chocs éventuels sans se rompre. Elles sont issues de tôles en acier à Haute Limite Elastique et mises en forme par découpage et pliage. L'étude de leur comportement lors de leur fabrication et des qualités mécaniques qui en résulte a été conduite de manière expérimentale et numérique avec confrontation des résultats pour valider la simulation. L'endommagement apporté au matériau est pris en compte dans les routines utilisateur du code EF Abaqus Standard. C'est une des fonctions objectives intervenant dans l'optimisation de la forme des attaches ainsi que dans l'optimisation du procédé de pliage. Les études sont basées sur des plans d'expériences des représentations approchées par surfaces de réponse et la mise en oeuvre d'un réseau de neurones artificiels. Les fonctions objectives sont les efforts exercés sur le poinçon, les contraintes et le dommage lors de l'opération de pliage. Dans les opérations de dépliage figurant le choc dynamique, les fonctions objectives sont l'effort maximal de dépliage, les contraintes et le dommage. La recherche des optima est faite par la méthode des éléments diffus, les stratégies d'évolution et un calcul global. Les paramètres rayon de matrice et jeu entre la tôle et l'outillage sont optimisés en vue de fournir une pièce la plus résistante possible.
83

Prise en compte des hétérogénéités dans la restitution de l'eau nuageuse et des précipitations par radiométrie micro-onde passive

Lafont, Damien 27 January 2005 (has links) (PDF)
L'observation par satellites des précipitations grâce aux radiomètres micro-ondes (MW) constitue l'une des bases de l'étude du climat. Cependant, le remplissage partiel du champ de vision des radiomètres conduit à des sous-estimations des taux de pluies retrouvés (beam-filling effect, BFE). A partir de simulations (nuages et rayonnement), la relation BFE-couverture nuageuse fractionnaire sous-pixel (CF) est étudiée. Les résultats montrent une dépendance avec le type de nuage et un maximum pour une faible couverture. CF étant le principal facteur à prendre en compte pour une correction des estimations par MW, un couplage température de brillance micro-onde-CF en entrée d'un algorithme par réseaux de neurones est effectué. Pour tester cette approche, des données satellites MW, radar et IR sont utilisées, puis deux couvertures sous-pixel (dérivées des mesures IR et radar) sont combinées aux TB. Les résultats sont encourageants et montrent l'avantage d'une synergie entre différents capteurs. Dans l'optique d'une classification intégrée aux restitutions, une méthode a été développée à méso-échelle. La classification est obtenue à partir de données IR et ne nécessite pas de seuil ciel clair / ciel nuageux.
84

Production d'étrangeté dans les collisions Ni+Ni à 1,93 AGeV

Lopez, Xavier 03 December 2004 (has links) (PDF)
Les principaux objectifs des collisions d'ions lourds relativistes sont l'étude de l'équation d'état de la matière nucléaire et des effets du milieu nucléaire sur la production et la propagation des particules étranges. Le détecteur FOPI installé auprès de l'accélérateur SIS du GSI de Darmstadt permet de mesurer et de reconstruire une grande variété de particules étranges, sensibles au milieu nucléaire dense et chaud. L'étude de la production des hypérons $\Lambda$ et $\Xi^-$ dans les collisions Ni+Ni à 1,93 AGeV, collectées par la collaboration FOPI, est présentée dans ce document. Plusieurs méthodes d'analyse ont été utilisées avec notamment une analyse basée sur les réseaux de neurones. Les taux de production des $\Lambda$ sont en particulier discutés en fonction de la centralité de la réaction. Les résultats sont comparés aux prédictions de divers modèles théoriques et résultats déjà existants. Une étude détaillée de la mesure des hypérons doublement étranges $\Xi^-$ sous le seuil de création est présentée. L'ensemble des résultats permet d'apporter de nouvelles contraintes aux modèles et une meilleure compréhension de la production d'étrangeté dans un domaine en énergie proche du seuil de création.
85

Recherche des squarks et des gluinos dans l'expérience DELPHI au LEP

Verdier, Patrice 23 April 2001 (has links) (PDF)
La montée en énergie et en luminosité du LEP a permis d'étendre considérablement la recherche de nouvelle physique en collisionneur e+e-. La supersymètrie permet de résoudre plusieurs problèmes du Modèle Standard en introduisant une symétrie entre fermions et bosons. Les squark s stop (t1) et sbottom (b1), partenaires supersymétriques des quarks de troisième génération occupent une place particulière. Ils pourraient être parmi les particules supersymétriques les plus légères. Les squarks ont tout d'abord été recherchés dans les données collectées par DELPHI de 1998 à 2000 à des énergies dans le centre de masse allant de 189 à 208 GeV. Lorsque la R-parité est conservée, la particule supersymétrique la plus légère (LSP) est le neutralino (01) qui interagit très faiblement avec la matière. Les canaux de désintégration des squarks sont t1 -> c01 et b1 -> b01. Les événements recherchés sont caractérisés par deux jets et de l'énergie manquante. Une attention particulière à été portée à la modélisation de l'hadronisation du stop et à l'étude des interactions photon-photon produisant des hadrons. Des limites sur les masses des squarks ont été établies. Cependant, de nouveaux modèles prédisent que la LSP est le gluino (g). La signature d'énergie manquante de la LSP est remise en cause. Le scénario d'un gluino LSP a donc été développé et recherché dans DELPHI. Les données enregistrées en 1994 à la résonance du Z0 ont permis de donner pour la première fois une limite sur la masse d'un gluino stable. L'analyse des données LEP2 a été réalisée pour les canaux de désintégration du stop en cg et du sbottom en bg. Des limites sur la masse des squarks, dans ce scénario, ont été obtenues. Elles confortent les limites obtenues à LEP1.
86

Caracterisation des suspensions par des methodes optiques. modelisation par reseaux de neurones

Bongono, Julien 03 September 2010 (has links) (PDF)
La sédimentation des suspensions aqueuses de particules minérales microniques, polydisperses et concentrées a été analysée à l'aide du Turbiscan MA 2000 fondé sur la diffusion multiple de la lumière, en vue d'établir la procédure qui permet de déceler la présence d'une morphologie fractale, puis de déduire les règles de comportements des suspensions fractales par la modélisation avec les réseaux de neurones. Le domaine des interactions interparticulaires physicochimiques (0 à 10% volumique en solide) a été privilégié.La méthodologie de détermination de la structure multifractale des agglomérats et de la suspension a été proposée. La modification structurale des agglomérats qui est à l'origine de comportements non linéaires des suspensions et qui dépend des propriétés cohésives des particules primaires, est interprétée par la variation de la mobilité électrophorétique des particules en suspension. Une approche d'estimation de ces modifications structurales par les réseaux de neurones, à travers la dimension fractale, a été présentée. Les limites du modèle à assimiler ces comportements particuliers ont été expliquées comme résultant du faible nombre d'exemples et de la grande variabilité des mesures aux faibles fractions volumiques en solide.
87

Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA

Tlili, Brahim 29 July 2008 (has links) (PDF)
Dans ce travail, nous nous sommes intéressés à l'identification et la commande prédictive des systèmes non linéaires monovariables et multivariables en exploitant les modèles NARMA. Pour l'identification des modèles de type NARMA, nous avons proposé deux nouvelles méthodes heuristiques. La première méthode est basée sur les algorithmes génétiques binaires et la deuxième méthode constitue une combinaison entre le réseau de neurones artificiels à fonction d'activation polynomiale et l'algorithme génétique sous sa représentation réelle. Cette dernière méthode a été également développée pour la modélisation des systèmes multivariables. Les résultats trouvés, pratiques ou en simulations, ont confirmé l'efficacité et la robustesse des méthodes proposées. En effet, les modèles NARMA déterminés caractérisent avec une précision acceptable et avec une complexité raisonnable le comportement des systèmes étudiés. Par la suite nous avons proposé un contrôleur prédictif des systèmes non linéaires sous contraintes, qui exploite les modèles de type NARMA. La loi de commande est obtenue en minimisant un critère quadratique non convexe. Le problème d'optimisation est résolu par deux méthodes utilisant les algorithmes de Nelder-Mead et de Rosenbrock qui ne nécessitent pas le calcul de la dérivée du critère. Ces méthodes, combinées avec la fonction de pénalité, l'approche CFON ainsi que l'utilisation de la notion de multi initialisation, permettent une meilleure convergence vers le minimum global.
88

Prévision des crues au pas de temps horaire : pour une meilleure assimilation de l'information de débit dans un modèle hydrologique

Berthet, Lionel 19 February 2010 (has links) (PDF)
La modélisation hydrologique Pluie - Débit compte parmi les outils incontournables pour prévoir les crues, car elle permet d'atteindre des horizons plus lointains que de nombreuses autres méthodes. Pour tenter d'améliorer la qualité des prévisions, les hydrologues ont proposé de nombreuses approches d'assimilation de données. Cette thèse s'intéresse à un modèle Pluie - Débit fonctionnant au pas de temps horaire. Elle propose une comparaison de nombreuses méthodes de mise-à-jour de ce modèle par l'assimilation de la donnée de débit observé à l'exutoire du bassin versant, dans le but de fournir des prévisions de crue à des horizons allant de quelques heures à quelques jours. Les mises-à-jour étudiées portent sur les paramètres du modèle, ses états et ses sorties. Certaines sont déterministes, d'autres probabilistes. Ce travail a permis de mettre en avant l'interaction qui existe entre la structure du modèle hydrologique et les mises-à-jour. Ces deux éléments se caractérisent par des dynamiques temporelles différentes. Nos résultats plaident pour que le modèle soit considéré comme un tout et non comme la juxtaposition d'un modèle hydrologique et d'une procédure de mise-à-jour. Il nous paraît préférable d'optimiser la structure et de caler le modèle en tenant compte des mises-à-jour qui seront appliquées. Le modèle donnant les meilleures prévisions associe une structure hydrologique très proche de celle obtenue au pas de temps journalier et deux mises-à-jour du modèle, l'une modifiant un état crucial du modèle, l'autre corrigeant ses sorties par un réseau de neurones artificiels. Cette combinaison a été évaluée à l'aide d'une sélection de critères de performance adaptés à l'objectif du modèle, sur un vaste ensemble de bassins versants français. Ses performances sont robustes et se comparent favorablement à d'autres modèles de prévision.
89

CONTRIBUTION A LA SURVEILLANCE DE L'INTEGRITE DES STRUCTURES

Saeed, Kashif 12 July 2010 (has links) (PDF)
La mise en place de la surveillance de l'intégrité des structures comprend les étapes de modélisation, d'identification, d'extraction des caractéristiques et de développement d'un modèle statistique. L'objectif de cette thèse est de développer une approche intégrée regroupant ces étapes et d'élaborer une stratégie de validation en utilisant un simulateur à éléments finis. Dans cette finalité, nous avons d'abord élaboré une méthode globale de modélisation d'une structure comprenant des capteurs piézo-électriques. Ensuite, nous avons choisi la méthode d'identification par sous-espaces pour améliorer la qualité de l'estimation des paramètres modaux et éliminer automatiquement les modes erronés. Un nouveau diagramme nommé histogramme de stabilisation a été proposé. Cet histogramme permet de sélectionner automatiquement les modes physiques, et d'obtenir le degré de confiance qui peut être accordé au mode identifié. En utilisant un modèle numérique simple, trois résidus basés sur les sous-espaces de la matrice de Hankel ont été étudiés. Nous avons montré que l'utilisation de ces résidus lors de la localisation des endommagements n'est pas très efficace. Par la suite, un nouveau vecteur de résidus non-paramétrique a été proposé. Ces résidus sont associés au noyau gauche de la matrice d'observabilité du système. En utilisant ce nouveau vecteur de résidus, nous avons également préconisé une méthodologie de localisation d'endommagement basée sur un modèle éléments finis et sur les réseaux de neurones. Les résultats numériques et expérimentaux obtenus sur une poutre composite et sur une plaque en aluminium permettent de valider la méthodologie proposée. Cette méthodologie est basée sur le calcul matriciel robuste et est bien adaptée pour l'identification des endommagements en temps semi-réel.
90

Obtenir une représentation en continu de la lithologie et de la minéralogie. Exemples d'application du traitement statistique de données de diagraphie aux structures sédimentaires en régime de convergence de plaques (Leg ODP 134, 156 et 160)

Rabaute, Alain 26 June 1998 (has links) (PDF)
Les techniques de diagraphies sont un moyen privilégié pour étudier les formations géologiques profondes, inaccessibles à l'observation directe. Elles mesurent en continu et in situ de nombreux paramètres pétrophysiques, ainsi que les concentrations en 7 éléments majeurs (Si, Ca, Fe, Al, S, K, Ti) et 3 éléments traces (U, Th et Gd). Une connaissance préalable des différents modes de fonctionnement des outils et de leur calibration permet d'évaluer la précision de la mesure. Celle-ci est surtout fonction des conditions de mesure (diamètre et rugosité du puits, vitesse de mesure). Lorsque les données sont de bonne qualité, les méthodes de classification multivariée, comme la méthode des nuées dynamiques ou le k-means, sont employées comme premier outil de visualisation des grandeurs mesurées par diagraphie. En parallèle ou en complément, à l'aide de méthodes d'inversion linéaire ou non-linéaire, il est possible de calculer une minéralogie en continu avec une précision suffisante pour être utilisée dans des modèles pétrophysiques et géologiques. Les zones de convergence de plaques lithosphériques sont des environnements géologiques instables, dans lesquels les techniques de diagraphie par cable, classiquement utilisée dans les forages scientifiques océaniques ou continentaux, ne permettent pas d'obtenir des données de bonne qualité. La nouvelle méthode de Logging-While-Drilling, ne laisse pas à l'environnement de mesure le temps de se déteriorer et donne une mesure utilisable. L'interprétation géologique, minéralogique et faciologique des données de diagraphies apportent des indications précieuses sur la dynamique sédimentaire, ainsi que sur les éventuelles transformations minéralogiques. Le caractère in situ de la mesure rend possible la modélisation de la dynamique des fluides ou de la variation et de l'orientation des champs de contrainte, dont les environnements étudiés sont souvent le siège.

Page generated in 0.0813 seconds