• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 129
  • 33
  • 11
  • 1
  • Tagged with
  • 176
  • 176
  • 86
  • 75
  • 73
  • 47
  • 38
  • 34
  • 27
  • 24
  • 23
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Contribution à l'étude et à l'optimisation de composants optoélectroniques

MAGNIN, Vincent 22 October 1998 (has links) (PDF)
Dans cette thèse, nous présentons des outils de modélisation destinés à l'étude des composants optoélectroniques et des méthodes d'optimisation permettant d'en tirer encore plus de profit. Afin de modéliser différents composants optoélectroniques sur InP, nous avons mis au point un logiciel fondé sur la méthode des faisceaux propagés (BPM) afin d'étudier la propagation et l'absorption de la lumière, et un modèle hydrodynamique afin de modéliser leur comportement électronique. Nous avons réalisé une recherche bibliographique pour regrouper les données matériaux nécessaires. Le premier composant que nous avons étudié et optimisé est un phototransistor à hétérojonction InP/InGaAs pour les applications hyperfréquences. Nous avons exposé son fonctionnement et montré ses possibilités et limites. Sa structure optique de type guide d'onde peut être améliorée par l'ajout d'une couche de quaternaire. On peut envisager la réalisation de phototransistors à double hétérojonction pour les applications de puissance. Nous avons ensuite étudié des photodiodes PIN-guide à très fort coefficient de couplage et grande tolérance d'alignement. Différentes solutions ont été envisagées. Nous avons montré l'intérêt des « structures lentillées », comportant plusieurs couches de confinement d'indices optiques progressifs, et étudié leurs performances optiques et électriques. Pour optimiser ces structures, nous avons mis au point un algorithme Monte Carlo couplé à une BPM-2D, qui permet de tester des milliers de structures aléatoires. Enfin, nous avons réalisé un Algorithme Génétique couplé à une BPM-2D et avons montré son intérêt pour l'optimisation de composants optoélectroniques avec de nombreux paramètres et des objectifs multiples. Ce type d'algorithme est fondé sur la théorie de l'évolution de Darwin. Nous l'avons appliqué à l'optimisation de commutateurs optique à réflexion interne totale et de commutateurs cascade.
82

Influence des phases amorphes dans la réponse optique des régolites planétaires : caractérisation des propriétés physiques et application à l'étude géologique de la Lune

Souchon, Audrey 09 March 2012 (has links) (PDF)
Les techniques de télédétection sont aujourd'hui largement mises en œuvre pour l'exploration des surfaces planétaires, appelées régolites, telles que la Lune, Mercure, Mars ou les astéroïdes. La photométrie est une technique basée sur l'observation d'une surface sous des angles variés qui renseigne sur les propriétés physiques de surface : mode de diffusion des particules (diffusant vers l'avant ou rétrodiffusant), granulométrie, rugosité de surface, degré de compaction... Cette thèse est centrée sur les matériaux volcaniques et les phases amorphes (ou verres), en raison de leur importance dans les processus responsables de la formation et de l'évolution des régolites : volcanisme, cratérisation, interaction avec l'environnement spatial. À l'aide du modèle photométrique de Hapke, dont les paramètres, une fois inversés, permettent de remonter aux propriétés physiques de surface, ce sujet est exploré sous deux approches : en laboratoire et à partir de données orbitales. Les mesures multiangulaires expérimentales, réalisées avec le spectro-imageur de l'IRAP, ont permis la caractérisation photométrique de différents matériaux volcaniques granulaires naturels ayant des compositions, tailles de grains et des teneurs en verre et monocristaux variées : basaltes, sable volcanique, pyroclastiques, olivine, et verre issu de la fusion contrôlée de basalte. Suivant leur composition, formes et textures, une évolution des comportements photométriques des échantillons en fonction de la granulométrie a été notée. Les matériaux riches en verre frais et/ou monocristaux présentent un comportement spécifique peu observé jusqu'alors, ce qui permet de les distinguer des matériaux sans verre ou contenant du verre plus mature. Des mélanges basalte/verre basaltique ont également permis de mettre en évidence l'influence optique très forte et non linéaire du verre frais. Une étude photométrique du cratère lunaire Lavoisier à partir de données orbitales a montré l'applicabilité des techniques mises en œuvre en laboratoire sur des unités géologiques, et des caractéristiques photométriques propres aux dépôts pyroclastiques situés sur le plancher du cratère ont été déterminées. Un autre dépôt pyroclastique au niveau du cratère Lavoisier F montre un comportement photométrique distinct des pyroclastiques du cratère Lavoisier, témoignant d'une variété texturale, granulométrique ou compositionnelle entre ces unités. L'ensemble des résultats obtenus sur ces cratères apparaît cohérent en regard des expériences réalisées en laboratoire.
83

Méthodologie d'optimisation d'un coeur de réacteur à neutrons rapides, application à l'identification de solutions (combustible, coeur, système) permettant des performances accrues : étude de trois concepts de coeurs refroidis à gaz, à l'aide de l'approche FARM

Ingremeau, Jean-Jacques 01 December 2011 (has links) (PDF)
Dans l'étude de tout nouveau réacteur nucléaire, la conception de son cœur est une étape décisive. Or il s'agit d'un problème complexe, qui couple fortement la neutronique, la thermomécanique du combustible et la thermo-hydraulique. Actuellement cette conception se fait par longues itérations successives entre les différentes spécialités. Afin d'optimiser de façon plus globale et complète la conception d'un cœur, une nouvelle démarche appelée FARM (FAst Reactor Methodology) a été développée dans le cadre de la thèse. Elle consiste à établir des modèles simplifiés de neutronique, mécanique et thermo-hydraulique, sous forme analytique ou d'interpolation de calculs de codes de référence, puis à les coupler, de manière à pré-dimensionner automatiquement un cœur à partir de variables d'optimisation. Une fois ce modèle établi, on peut explorer et optimiser directement de nombreux cœurs, à partir d'algorithmes génétiques de façon à améliorer leurs performances (inventaire Plutonium en cycle, ...) et leur sûreté (estimateurs de sûreté pour accidents protégés et non-protégés). Une réflexion a également due être menée pour déterminer les performances d'un cœur, ainsi que la façon de prendre en compte la sûreté. Cette nouvelle approche a été utilisée pour optimiser la conception de trois concepts de cœurs de Réacteur à Neutrons Rapides refroidi au Gaz (RNR-G). Tout d'abord, la conception du RNR-G à combustible carbure et à aiguilles en SiC a pu être optimisée. Les résultats ont permis d'une part de démontrer que le cœur de référence issu de la méthode itérative était optimal (c'est-à-dire sur le front de Pareto). D'autre part, l'optimisation a également permis de proposer de nombreux autres cœurs, où en dégradant un estimateur de sûreté ou une performance (sur lesquels des marges étaient disponibles), on améliore les autres performances. Une évolution de ce concept utilisant la nouvelle technologie du buffer, a également été modélisée dans FARM et optimisée. FARM a ainsi permis de proposer les premières images de cœur GFR carbure gainé en SiC utilisant la technologie buffer, et d'estimer leurs performances. Les résultats obtenus montrent que cette innovation permet d'atteindre des cœurs beaucoup plus performants et/ou beaucoup plus " sûrs " (plusieurs profils de cœurs étant proposés). Une troisième application de FARM a été réalisée sur un concept de GFR carbure gainé en Vanadium, où là aussi FARM a proposé les premières images de cœur. Toutefois les grandes incertitudes en jeu ne permettent pas véritablement de conclure sur les performances de ce concept, qui semble prometteur.Ainsi, la faisabilité d'une optimisation globale, couplant les différentes physiques d'un cœur de réacteur nucléaire a été démontrée. Si la méthode ainsi obtenue (FARM) est moins précise que la méthode classique, elle permet d'explorer et d'optimiser beaucoup plus rapidement (en quelques semaines au lieu de quelques mois) un grand nombre de cœurs et est parfaitement adaptée pour l'étape de préconception des cœurs de réacteurs ; d'autres études détaillées permettant ensuite d'affiner l'image de cœur retenue.
84

Optimisation d'une source d'harmoniques d'ordres élevés pour l'optique non-linéaire dans l'extrême UV

Kazamias-Moucan, Sophie 03 January 2003 (has links) (PDF)
Cette thèse présente le travail réalisé sur la source harmoniques du LOA à partir d'une chaine Titane-Saphir kHz. Cette étude s'inscrit dans la perspective d'observer des effets non linéaires dus à l'interaction d'un faisceau harmonique intense focalisé sur cible solide. Nous présentons l'étude de l'optimisation de cette source, qui permet de générer efficacement des harmoniques en limite d'absorption. Un cadre complet d'étude de ces conditions d'optimisation du point de vue théorique et expérimental est défini avec notamment une explication détaillée de l'importance de la diaphragmation du faisceau infrarouge. Nous montrons également comment la technique des algorithmes génétiques a été utilisé par le controle de la phase spectrale du laser de pompe. Nous concluons sur la focalisation des harmoniques.
85

Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA

Tlili, Brahim 29 July 2008 (has links) (PDF)
Dans ce travail, nous nous sommes intéressés à l'identification et la commande prédictive des systèmes non linéaires monovariables et multivariables en exploitant les modèles NARMA. Pour l'identification des modèles de type NARMA, nous avons proposé deux nouvelles méthodes heuristiques. La première méthode est basée sur les algorithmes génétiques binaires et la deuxième méthode constitue une combinaison entre le réseau de neurones artificiels à fonction d'activation polynomiale et l'algorithme génétique sous sa représentation réelle. Cette dernière méthode a été également développée pour la modélisation des systèmes multivariables. Les résultats trouvés, pratiques ou en simulations, ont confirmé l'efficacité et la robustesse des méthodes proposées. En effet, les modèles NARMA déterminés caractérisent avec une précision acceptable et avec une complexité raisonnable le comportement des systèmes étudiés. Par la suite nous avons proposé un contrôleur prédictif des systèmes non linéaires sous contraintes, qui exploite les modèles de type NARMA. La loi de commande est obtenue en minimisant un critère quadratique non convexe. Le problème d'optimisation est résolu par deux méthodes utilisant les algorithmes de Nelder-Mead et de Rosenbrock qui ne nécessitent pas le calcul de la dérivée du critère. Ces méthodes, combinées avec la fonction de pénalité, l'approche CFON ainsi que l'utilisation de la notion de multi initialisation, permettent une meilleure convergence vers le minimum global.
86

Classification multi-vues d'un objet immergé à partir d'images sonar et de son ombre portée sur le fond

Quidu, Isabelle 11 December 2001 (has links) (PDF)
La classification sur ombre de mines marines peut être effectuée à partir d'images sonar haute résolution. Cependant, la classification mono-vue admet des limites du fait de leur forme géométrique parfois complexe. Une manière de s'affranchir des ambiguïtés consiste à effectuer une classification multi-vues. Dans un premier temps, il convient d'assimiler les spécificités de l'imagerie sonar. D'un côté, les propriétés statistiques des pixels et le principe d'acquisition des images sont des connaissances avantageusement prises en compte lors de l'étape de segmentation. D'un autre côté, les distorsions géométriques qui affectent l'ombre portée du fait des performances du sonar et de la prise de vue doivent être considérées. En matière de reconnaissance de formes, les données sonar segmentées peuvent être diversement résumées suivant qu'on s'attache à définir des grandeurs indépendantes des positions relatives objet-sonar et/ou de la résolution du sonar ou bien, autorisant une reconstruction du contour et la conservation de l'orientation de la forme associée. Ces considérations du problème mono-vue ont préparé l'élaboration de processus plus complexes de classification multi-vues. D'une part, on manipule les attributs issus d'un traitement image par image. Deux cas se présentent : en exploitant l'évolution de la forme de l'ombre en fonction du trajet du sonar ou, au contraire, en s'affranchissant des transformations du plan. Dans le premier cas, on caractérise de manière globale l'ensemble des valeurs successives prises par des attributs sensibles aux diverses formes de l'ombre. Dans le second cas, sans connaissance précise des conditions d'acquisition, les attributs extraits sont fusionnés et présentés à l'opérateur sous forme de mesures pour l'aide à la décision. Par la logique floue d'autre part, les outils de reconnaissance de formes calculés sur des données binaires ont été étendus au cas de données en niveaux de gris d'une nouvelle image pour sa caractérisation.
87

Impact des liens hypertextes sur la précision en recherche d'information.

Chibane, Idir 10 December 2008 (has links) (PDF)
Le Web est caractérisé par un volume d'information exponentiellement croissant ainsi que par l'hétérogénéité de ses ressources. Face au très grand nombre de réponses fournies par un moteur de recherche, il s'agit de fournir des réponses pertinentes parmi les premières réponses. Nous nous intéressons aux algorithmes de propagation de pertinence pour des corpus de documents hypertextes, et en particulier à l'analyse des liens afin d'exploiter l'information véhiculée par ses liens et par le voisinage des documents Web. Cependant, les différentes techniques proposées dépendent de paramètres statiques, fixés à priori selon le type de collection et l'organisation des pages Web. Dans cette thèse, nous proposons une nouvelle méthode de propagation de pertinence en utilisant des paramètres calculés dynamiquement, indépendamment de la collection utilisée. En effet, nous proposons de modéliser une fonction de correspondance d'un système de recherche d'information en prenant en compte à la fois le contenu d'un document et le voisinage de ce document. Ce voisinage est calculé dynamiquement en pondérant les liens hypertextes reliant les documents en fonction du nombre de termes distincts de la requête contenus dans ces documents. Pour traiter l'hétérogénéité des documents Web, nous modélisons les ressources Web à différents niveaux de granularité (site, page, bloc) afin de prendre en compte les différents thèmes contenus dans un même document. Nous proposons aussi une méthode de segmentation thématique des pages Web en utilisant des critères visuels et de représentation du contenu des pages afin d'extraire des blocs thématiques qui seront utilisés pour améliorer les performances de la recherche d'information. Nous avons expérimenté notre système sur deux collections de test WT10g et GOV. Nous concluons que notre modèle fournit de bons résultats par rapport aux algorithmes classiques reposant sur le contenu seul d'un document et ceux reposant sur l'analyse des liens (PageRank, HITS, propagation de pertinence).
88

Exploitation des algorithmes génétiques pour la prédiction de structure de complexe protéine-protéine

Bourquard, Thomas 17 December 2009 (has links) (PDF)
Les fonctions de la majorité des protéines sont subordonnées à l'interaction avec un ou plusieurs partenaires : acides nucléiques, autres protéines... La plupart de ces interactions sont transitoires, difficiles à détecter expérimentalement et leurs structures sont souvent impossible à obtenir. C'est pourquoi la prédiction in silico de l'existence de ces interactions et la structure du complexe résultant ont été l'objet de nombreuses études depuis plus d'une décennie maintenant. Pour autant les protéines sont des objets complexes et les méthodes informatiques classiques sont trop "gourmandes" en temps pour l'exploration à grande échelle de l'interactome des différents organismes. Dans ce contexte de développement d'une méthode de docking protéine-protéine haut débit nous présenterons ici l'implémentation d'une nouvelle méthode d'amarrage, celle-ci est basée sur : l'utilisation de deux types de formalismes : Les tessellations de Voronoï et Laguerre permettant la manipulation de modèles géométriques simplifiés permettant une bonne modélisation des complexes et des temps de calcul plus raisonnable qu'en représentation atomique. L'utilisation et l'optimisation d'algorithmes d'apprentissage (algorithmes génétiques) permettant d'isoler les conformations les plus pertinentes entre deux partenaires protéiques. Une méthode d'évaluation basée sur le clustering de méta-attributs calculés au niveau de l'interface permettant de trier au mieux ce sous-ensemble de conformations candidates.
89

Contribution à l'étude des problèmes de ré-ordonnancement en cas de perturbation dans un système de transport de voyageurs dans une ville.

Nguyen Duc, Khoat 17 November 2007 (has links) (PDF)
Ce travail de thèse sur les problèmes de ré-ordonnancement dans un système de transport de bus concerne la mise en oeuvre d'un système d'aide (SAD) pour les régulateurs des exploitants dans leurs tâches de prise de décision lorsque se produisent des perturbations dans le fonctionnement du réseau de transport. Dans ce contexte, nous avons développé un SAD qui repose sur un module de dimensionnement et un module des stratégies de régulation pour aider les régulateurs dans le processus de planification en temps réel et pour diminuer les influences des perturbations. Les approches par l'algorithme génétique et l'algorithme du recuit simulé sont utilisées pour la régulation en tenant compte des diverses contraintes imposées au système et en particulier des contraintes de capacité des autobus. Un nouveau codage et de nouveaux opérateurs de croisement et de mutation ont été proposés pour permettre de respecter les contraintes du problème. Ainsi, nous avons construit une application en Visual C Sharp du SAD proposé afin de prouver son efficacité en cas de perturbation sur le réseau de transport public d'autobus.
90

Conception d'un système d'aide à l'ordonnancement tenant<br />compte des impératifs économiques

Ihsen, Saad 12 July 2007 (has links) (PDF)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution et l'optimisation de la production en tenant compte des impératifs économiques, jouant aujourd'hui un rôle déterminant dans la conduite de la production industrielle. Pour le problème du job-shop flexible dans lequel les interactions entre les critères sont supposées disponibles, cinq critères ont été retenus : le Makespan, la charge critique, la charge totale, la pénalité de retards/avance et le coût de la production. Dans ce sens, nous avons, d'abord, traité le problème de décision et d'évaluation d'une solution et introduit ensuite trois approches intégrées, basées sur les algorithmes génétiques, améliorant les approches évolutionnistes existant dans la littérature : la méthode statique basée sur l'intégrale de Choquet, la méthode approchée basée sur le concept Paréto-optimalité ainsi que la méthode basée sur le concept de ε-dominance Paréto-optimalité. Les approches adoptées consistent à générer une variété de solutions optimales diversifiées dans l'espace de recherche de solutions, et d'aider le décideur, quand il ne peut pas donner une préférence particulière à l'une des fonctions objectif. Les résultats proposés, obtenus globalement pour l'ensemble des critères, ont été comparés, avec succès, avec ceux obtenus par d'autres approches existantes sur plusieurs benchmarks de complexités distinctes.

Page generated in 0.0643 seconds