• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique

Njimi, Hassane 05 September 2008 (has links)
Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
502

Network pricing problems: complexity, polyhedral study and solution approaches / Problèmes de tarification de réseaux: complexité, étude polyédrale et méthodes de résolution

Heilporn, Géraldine 14 October 2008 (has links)
Consider the problem of maximizing the revenue generated by tolls set on a subset <p>of arcs of a transportation network, where origin-destination flows (commodities) are assigned to shortest paths with respect to the sum of tolls and initial costs. <p>This thesis is concerned with a particular case of the above problem, in which all toll arcs are connected and constitute a path, as occurs on highways. Further, as toll levels are usually computed using the highway entry and exit points, a complete toll subgraph is considered, where each toll arc corresponds to a toll subpath. Two <p>variants of the problem are studied, with or without specific constraints linking together the tolls on the arcs. <p>The problem is modelled as a linear mixed integer program, and proved to be NP-hard. Next, several classes of valid inequalities are proposed, which strengthen important constraints of the initial model. Their efficiency is first shown theoretically, as these are facet defining for the restricted one and two commodity problems. <p>Also, we prove that some of the valid inequalities proposed, together with several <p>constraints of the linear program, provide a complete description of the convex hull <p>of feasible solutions for a single commodity problem. Numerical tests have also been conducted, and highlight the real efficiency of the valid inequalities for the multi-commodity case. Finally, we point out the links between the problem studied in the thesis and a more classical design and pricing problem in economics. /<p><p><p>Considérons le problème qui consiste à maximiser les profits issus de la tarification d’un sous-ensemble d’arcs d’un réseau de transport, où les flots origine-destination (produits) sont affectés aux plus courts chemins par rapport aux tarifs et aux coûts initiaux. Cette thèse porte sur une structure de réseau particulière du problème ci-dessus, dans laquelle tous les arcs tarifables sont connectés et forment un chemin, <p>comme c’est le cas sur une autoroute. Étant donné que les tarifs sont habituellement déterminés selon les points d’entrée et de sortie sur l’autoroute, nous considérons un sous-graphe tarifable complet, où chaque arc correspond en réalité à un sous-chemin. Deux variantes de ce problème sont étudiées, avec ou sans contraintes <p>spécifiques reliant les niveaux de tarifs sur les arcs. <p>Ce problème peut être modélisé comme un programme linéaire mixte entier. Nous prouvons qu’il est <p>NP-difficile. Plusieurs familles d’inégalités valides sont ensuite proposées, celles-ci renforçant certaines contraintes du modèle initial. Leur efficacité est d’abord démontrée de manière théorique, puisqu’il s’agit de facettes <p>des problèmes restreints à un ou deux produits. Certaines des inégalités valides proposées, ainsi que plusieurs contraintes du modèle initial, permettent aussi de donner une description complète de l’enveloppe convexe des solutions réalisables d’un problème restreint à un seul produit. Des tests numériques ont également <p>été menés, et mettent en évidence l’efficacité réelle des inégalités valides pour le problème général à plusieurs produits. Enfin, nous soulignons les liens entre le problème de tarification de réseau étudié dans cette thèse et un problème plus classique de tarification de produits en gestion. <p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
503

Contribution à la modélisation mathématique pour la simulation et l'observation d'états des bioprocédés

Bogaerts, Philippe 21 April 1999 (has links)
Les bioprocédés ont connu un essor considérable au cours de ces dernières années et sont promis à un bel avenir. Qu'il s'agisse de la production de vaccins, de la fermentation de levures pour l'industrie alimentaire ou encore de l'épuration biologique des eaux usées, les applications sont nombreuses et les produits sont d'un intérêt capital pour l'être humain. Étant donnés le coût et le temps de mise en oeuvre de ces procédés, il est particulièrement utile de construire des simulateurs permettant de reproduire le comportement macroscopique des cultures cellulaires utilisées. Ces simulateurs peuvent servir à déterminer des conditions optimales de fonctionnement (en fonction des critères de l'utilisateur) et à tester certains outils (régulateurs, capteurs logiciels, etc.). Par ailleurs, il est nécessaire, pour le suivi et la régulation de ces procédés, de disposer de grandeurs mesurées (concentrations cellulaires, en substrats, en le produit d'intérêt, etc.). Les problèmes liés à la mesure matérielle de ces grandeurs sont nombreux: coût des capteurs, destruction des échantillons, longues périodes d'échantillonnage, temps d'analyse élevés, etc. Il est dès lors utile de construire des observateurs d'états (ou capteurs logiciels) fournissant une estimation en temps continu de grandeurs non mesurées sur la base d'un modèle mathématique et de certaines mesures matérielles.<p><p>Les modèles mathématiques sont nécessaires pour la synthèse des deux types d'outils envisagés dans ce travail (simulateurs et capteurs logiciels). Les modèles utilisés consistent en les bilans massiques des constituants apparaissant dans le schéma réactionnel, ce dernier contenant les réactions essentielles pour la description des phénomènes à l'échelle macroscopique. Au sein de ces bilans massiques, une nouvelle structure générale de modèle cinétique est proposée, possédant un certain nombre de propriétés intéressantes, telles l'interprétation physique des paramètres cinétiques, les concentrations définies positives sous certaines conditions, la garantie de stabilité entrées bornées - états bornés, ou encore la possibilité de linéarisation en les paramètres à estimer.<p><p>Une méthodologie générale d'estimation paramétrique est proposée, afin d'identifier les coefficients pseudo-stoechiométriques, les coefficients cinétiques et certains paramètres expérimentaux (concentrations initiales des cultures). Cette méthodologie possède un caractère systématique, prend en compte les erreurs de mesure sur l'ensemble des signaux (y compris à l'instant initial), fournit à l'utilisateur la covariance des erreurs d'estimation paramétrique, prend en compte intrinsèquement les contraintes de signe sur les paramètres, fournit une estimation des erreurs de simulation, permet de réduire le nombre d'équations différentielles au sein du modèle, etc. La mise en oeuvre et l'intérêt de ces outils sont illustrés en simulation (cultures bactériennes) et dans le cas d'une application réelle (cultures de cellules animales CHO).<p><p>La première catégorie d'observateurs d'états étudiée dans ce travail est celle des observateurs utilisant pleinement le modèle cinétique. L'observation d'états basée sur l'identification des conditions initiales les plus vraisemblables est plus particulièrement analysée. Elle consiste à estimer en temps continu l'entièreté de l'état par intégration d'un modèle de simulation au départ des conditions initiales les plus vraisemblables. Ces dernières sont identifiées à chaque nouvel instant de mesure sur la base de toute l'information disponible jusqu'à cet instant. Certaines propriétés mathématiques sont étudiées (dont une comparaison avec le filtre de Kalman) et un certain nombre d'extensions de la méthode sont proposées (dont une version récurrente qui ne nécessite plus de résoudre un problème d'optimisation non linéaire à chaque nouvel instant de mesure). Ces outils sont à nouveau illustrés dans le cadre des cultures de cellules animales CHO, et se basent sur les modèles de simulation développés dans la première partie du travail.<p><p>Étant donné les risques de divergence des observateurs de cette première catégorie lorsque la qualité du modèle cinétique n'est pas suffisante, une seconde catégorie est envisagée, constituée des observateurs utilisant partiellement le modèle cinétique. Dans ce contexte, un nouvelle technique est proposée consistant en un observateur hybride entre le filtre de Kalman étendu (utilisant pleinement le modèle cinétique) et l'observateur asymptotique de Bastin et Dochain (n'utilisant pas du tout le modèle cinétique). Cette structure estime (conjointement avec l'état du système) un degré de confiance en le modèle cinétique. Elle est capable d'évoluer de façon progressive, en fonction de ce degré de confiance, entre les deux solutions extrêmes (filtre de Kalman et observateur asymptotique), tirant ainsi parti des avantages respectifs de ces deux méthodes selon les conditions opératoires et la qualité du modèle cinétique. Ces outils sont validés sur des cultures bactériennes simulées.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
504

Updating acoustic models: a constitutive relation error approach

Decouvreur, Vincent 31 January 2008 (has links)
In the global framework of improving vibro-acoustic numerical prediction quality together with the need to decrease the number of prototyping stages, this manuscript focuses on achieving greater accuracy for acoustic numerical simulations by making use of a parametric updating technique, which enables tuning the model parameters inside physically meaningful boundaries. The improved model is used for the next prototyping stages, allowing more accurate results within reduced simulation times. The updating technique is based on recent works dealing with the constitutive relation error method (CRE) applied to acoustics. The updating process focuses on improving the acoustic damping matrix related to the absorbing properties of the materials covering the borders of the acoustic domain. / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
505

Modélisation de scénarios de déversements de pétrole et de la température de l'eau dans la rivière Chaudière

St-Gelais, Karianne 12 July 2019 (has links)
En juillet 2013, une urgence environnementale a eu lieu dans la municipalité du Lac-Mégantic en Estrie, à la suite d’un déraillement d’un train qui transportait du pétrole. Ce déraillement a provoqué des explosions et des incendies dans le centre-ville. Près de 100 000 litres de pétrole ont réussi à atteindre le Lac-Mégantic et la rivière Chaudière. À la suite de cet accident, plusieurs interventions ont été mises en place afin de limiter les dégâts et l’élaboration de ce projet de maîtrise découle de cette catastrophe. Un des objectifs poursuivis était d’améliorer la prise de décisions des différents intervenants en cas de déversement de substances en milieu aquatique. En générant des modèles de suivi du pétrole, cela pourrait les aider dans leurs prises de décisions. Par exemple, pour décider du moment de la fermeture des prises d’eau potable des villes et des industries ou encore pour l’installation des estacades pour confiner le pétrole. Pour développer ce modèle de transport de polluants dans la rivière Chaudière, le logiciel HEC-RAS et son module de qualité de l’eau, ont été utilisés. Le modèle développé tient compte uniquement de la dispersion longitudinale puisque le temps entre le moment du déversement et le déploiement des intervenants sur le lieu serait suffisamment grand pour que le pétrole se situe dans la zone du champ lointain et, conséquemment, les concentrations des polluants seraient homogènes. La zone du champ lointain correspond à la zone pour laquelle il ne reste plus que de la dispersion longitudinale puisque la diffusion verticale et transversale est terminée. Les paramètres nécessaires pour réaliser cette modélisation sont la période de simulation, la concentration initiale du polluant, la masse de pétrole déversé, les conditions limites, les types d’équations de croissance (passif ou actif) et le coefficient de dispersion. Ce dernier paramètre a été déterminé expérimentalement afin de choisir parmi les nombreuses équations empiriques existantes laquelle permettrait d’obtenir un coefficient proche de la valeur expérimentale obtenue soit de 4,37 m2/s. Ces équations considèrent les aspects naturels du milieu pour lesquels elles ont été créées et c’est l’équation de Li et al. 1998 (1) qui a été retenue pour le modèle. Une fois l’ensemble des paramètres connus et obtenus de la littérature, plusieurs scénarios de déversements pour différents débits ont été simulés pour valider le modèle. Des courbes de concentration du pétrole en fonction du temps à différents endroits sur la rivière Chaudière ont été obtenues, ainsi que les temps de séjour moyens du pétrole. Avec ce modèle, il a été déterminé que le pétrole prendrait 161,8 h pour atteindre le pont de Saint-Lambert-De-Lauzon pour un débit d’étiage de 3,8 m3/s et prendrait 33,2 h pour un débit de crue de 183,4 m3/s. De plus, avec ce modèle le moment pour lequel le pétrole atteindra la prise d’eau potable de Sainte-Marie pourrait être connu. La température de l’eau est un paramètre qui intervient dans les différents processus de transformation des contaminants lors de déversement. Par contre, ce paramètre n’a pas pu être pris en compte avec le logiciel HEC-RAS. En complément à ce modèle de transport du pétrole et en préparation pour le développement d’un modèle plus complexe, la modélisation du régime thermique de la rivière Chaudière a été réalisée. Cette modélisation a été conçue en utilisant une régression linéaire multiple, ainsi que les données issues de sondes de température ONSET HOBO U20 0-4M. Ces sondes ont été installées à neuf endroits sur la rivière pour la période allant du 19 septembre au 22 octobre 2017. Les données pour établir la relation linéaire avec celle de la température de l’eau sont : la température de l’air, la température de l’air de la veille (°C), la température de l’air de l’avant-veille (°C), le débit (m3/s) et le temps (jours). Les coefficients de détermination obtenus lors de cette modélisation se situent entre 83 % et 98 % pour l’ensemble des sites et l’erreur quadratique moyenne se situe entre 0,55 et 0,97. Par la suite, une corrélation a été établie entre les équations de régression de la rivière Etchemin et de la rivière Chaudière. Une fois cette corrélation établie, la régression linéaire annuelle pour la rivière Etchemin a été modifiée pour tenir compte de cette corrélation. En tout, dix-huit équations ont été obtenues pour prédire la température de l’eau à différents endroits sur la rivière Chaudière, et ce, pour différentes périodes de l’année.
506

The implementation delay of announced corporate events : three essays in corporate finance and financial markets

Sodjahin, William Rolland 13 April 2018 (has links)
Cette thèse aborde la question rarement traitée du contenu informationnel du délai d'exécution des annonces corporatives, c'est-à-dire de ses déterminants, et de ses conséquences. Notre démarche est à la fois un effort de modélisation et de validation empirique des hypothèses découlant du modèle. Le premier article se consacre à l'étude du contenu informationnel du délai d'attente d'une introduction en bourse. Étant donné que les premières émissions d'actions s'opèrent dans un contexte d'asymétrie d'information et de risque de sélection adverse, le délai externe de préparation d'une émission est important aussi bien pour les investisseurs que pour les entreprises émettrices et les banques introductrices. Les implications théoriques de notre modèle ainsi que les résultats empiriques révèlent qu'il y a un fort contenu informationnel dans la longueur du délai d'attente d'une première émission. En effet, la longueur du délai croît avec la taille du syndicat d'émission et diminue avec les besoins de liquidité, l'endettement pré-émission, l'investissement et les incitations post-émission. En conséquence, nous trouvons qu'un court délai d'attente génère non seulement des niveaux élevés d 'hétérogénéité des croyances des investisseurs mais aussi accroît les chances de la banque émettrice d'être retenue et la taille du syndicat d'être maintenue pour une émission subséquente. Même si le délai d'attente n'explique pas significativement la sous-évaluation lors de l'introduction en bourse, celui d'une émission subséquente explique le rendement de la firme lors de cette deuxième émission. En somme, nos résultats suggèrent qu'alors que les entreprises et les banques émettrices profitent de courts délais d'attente, les manageurs et les investisseurs bénéficient de délais d'attente plus longs. Le second article se consacre à la politique du fractionnement d'action et propose un modèle de fractionnement dérivant un facteur optimal, une décision optimale et un délai optimal de réalisation du fractionnement d'action annoncé. Nos résultats empiriques montrent que la décision et le choix du facteur de fractionnement sont déterminés par la performance passée, alors que les opportunités de croissance et le niveau de prix, la longueur du délai d'exécution du fractionnement d'action est expliquée par l'effet taille et les incitations des manageurs et des adininistrateurs. Finalement, nous trouvons qu'un délai court est associé avec un niveau élevé d'hétérogénéité des croyances des investisseurs sans pour autant affecter significativement la performance à plus long terme des firmes fractionnantes. Le dernier article étudie le regroupement d'action à l'aide du modèle développé dans le deuxième essai. Les résultats révèlent que la baisse progressive du prix de l'action et de faibles opportunités de croissance conduisent à la décision du groupement d'action, alors que le choix du facteur de regroupement est déterminé par la taille, le niveau de prix pré-annonce et la liquidité de la firme. De plus, nous montrons que les incitations des manageurs et des administrateurs n'affectent pas le délai d'exécution du regroupement, bien que nous identifions de forts effets de l'âge et de la taille sur la longueur du délai d'exécution du regroupement d'action. Finalement, nous montrons que le facteur et le délai d'exécution aident à prédire la survie des firmes. Nous concluons que le délai entre l'annonce d'une décision corporative et le moment où elle devient effective est un outil de plus dans notre compréhension des décisions étudiées dans cette thèse. Le délai contient de l'information sur la gestion interne de la firme et par le fait même sur ses décisions et performances futures.
507

Une approche à base d'agents pour la planification et l'ordonnancement en temps réel de personnel dans un contexte de chaîne d'assemblage flexible

Sabar, Mohamed 13 April 2018 (has links)
La recherche abordée dans le cadre de cette thèse s'intéresse à la gestion des ressources humaines opérationnelles, et plus spécifiquement aux problèmes de planification de ces ressources dans un contexte dynamique. Un intérêt particulier est porté au problème d'ordonnancement en temps réel du personnel travaillant sur une chaîne d'assemblage. Nous abordons cette problématique dans une perspective de gestion par compétences et ce, en nous basant sur le profil de compétences dans la modélisation de l'offre et de la demande en main-d'oeuvre. Quatre principaux axes de recherche sont exploités. Le premier axe vise l'aspect théorique de la modélisation du problème d'ordonnancement du personnel. A cet effet, nous proposons un modèle mathématique du problème d'affectation dynamique des employés sur une chaîne d'assemblage avec la prise en considération des préférences, des compétences et des déplacements inter-postes des employés. En nous basant sur ce modèle, et grâce à l'utilisation du solveur commercial de type Cplex, nous avons pu résoudre des instances de problèmes de petite taille. Les résultats obtenus démontrent que la production d'une solution optimale requiert un temps de calcul important, ce qui risque de générer une rigidité et une moindre réactivité de la fonction d'ordonnancement face à des perturbations d'un environnement dynamique. Le deuxième axe de recherche porte sur l'élaboration d'une approche distribuée à base d'agents pour la résolution du problème d'ordonnancement du personnel. L'approche proposée se base sur l'utilisation de plusieurs catégories d'agents intelligents qui coopèrent entre eux à travers la formation de coalitions. Chaque coalition est formée de deux agents-employés qui auront décidé de coopérer entre eux en s'échangeant une partie de leurs activités d'assemblage afin d'améliorer leur profit et en conséquence, la qualité de la solution globale d'ordonnancement. Les résultats d'ordonnancement du personnel obtenus à partir des premiers tests sont encourageants. Ils démontrent que notre approche à base d'agents permet d'obtenir des solutions de bonne qualité en des temps raisonnables. Le troisième axe de recherche porte sur le réordonnancent du personnel en temps réel face aux aléas liés à l'absence d'employés. À cet effet, nous proposons une extension de l'approche à base d'agents ainsi que deux variantes de l'approche de recuit simulé, qui permettent de résoudre le problème de réordonnancement. Nous avons pu tester les performances de ces deux approches sur plusieurs cas du problème d'ordonnancement et de réordonnancement du personnel. L'ensemble des résultats démontre que l'algorithme à base d'agents conduit à de très bonnes solutions en comparaison avec le recuit simulé. Enfin, nous avons exploité les algorithmes à base d'agents et de recuit simulé, qui sont développés dans cette recherche, pour étudier deux aspects de la gestion stratégique des ressources humaines : la flexibilité dans l'élaboration des horaires de travail et l'impact de la prise en considération des préférences dans le processus d'ordonnancement du personnel. Dans les deux cas, les résultats de simulation obtenus corroborent les hypothèses initiales de recherche, à savoir la pertinence et l'intérêt de la notion de flexibilité et de la prise en compte des préférences dans le processus d'ordonnancement du personnel.
508

Interaction entre la dégradation accélérée du pergélisol discontinu et l'organisation du réseau de drainage, Québec subarctique

Larouche, Marie-Ève 17 April 2018 (has links)
Cette étude porte sur la participation des processus hydrologiques dans le régime thermique et la dégradation du pergélisol. L'eau emmagasinée dans les lacs de thermokarst est une source importante de chaleur qui accélère la dégradation du pergélisol. Les buttes cryogènes encore présentes dans l'environnement peuvent empêcher le réseau de drainage de se développer normalement. L'élaboration d'un modèle numérique bidimensionnel permet de simuler le développement rapide d'un talik occasionné par une mare de thermokarst adjacente à une butte cryogène. En raison de l'importante modification de la macrostructure d'un sol fin riche en glace au moment de la fusion, l'infiltration d'eau est susceptible de devenir une variable thermiquement importante. L'application d'un terme source qui évalue différentes valeurs de conductivité hydraulique du pergélisol en fusion au contact d'une mare permet d'estimer dans quelle mesure ce processus encore peu observé ou testé en laboratoire pourrait contribuer à la fonte accélérée du pergélisol.
509

Excited States in U(1)2+1 Lattice Gauge Theory and Level Spacing Statistics in Classical Chaos

Hosseinizadeh, Ahmad 17 April 2018 (has links)
Cette thèse est organisé en deux parties. Dans la première partie nous nous adressons à un problème vieux dans la théorie de jauge - le calcul du spectre et des fonctions d'onde. La stratégie que nous proposons est de construire une base d'états stochastiques de liens de Bargmann, construite à partir d'une distribution physique de densité de probabilité. Par la suite, nous calculons les amplitudes de transition entre ces états par une approche analytique, en utilisant des intégrales de chemin standards ainsi que la théorie des groupes. Également, nous calculons numériquement matrices symétrique et hermitienne des amplitudes de transition, via une méthode Monte Carlo avec échantillonnage pondéré. De chaque matrice, nous trouvons les valeurs propres et les vecteurs propres. En appliquant cette méthode â la théorie de jauge U(l) en deux dimensions spatiales, nous essayons d'extraire et de présenter le spectre et les fonctions d'onde de cette théorie pour des grilles de petite taille. En outre, nous essayons de faire quelques ajustement dynamique des fenêtres de spectres d'énergie et les fonctions d'onde. Ces fenêtres sont outiles de vérifier visuellement la validité de l'hamiltonien Monte Carlo, et de calculer observables physiques. Dans la deuxième partie nous étudions le comportement chaotique de deux systèmes de billard classiques, par la théorie des matrices aléatoires. Nous considérons un gaz périodique de Lorentz à deux dimensions dans des régimes de horizon fini et horizon infini. Nous construisons quelques matrices de longueurs de trajectoires de un particule mobile dans ce système, et réalisons des études des spectres de ces matrices par l'analyse numérique. Par le calcul numérique des distributions d'espacement de niveaux et rigidité spectral, nous constatons la statistique des espacements de niveaux suggère un comportement universel. Nous étudions également un tel comportement pour un système optique chaotique. En tant que quasi-système de potentiel, ses fluctuations dans l'espacement de ses niveaux suivent aussi un comportement GOE, ce qui est une signature d'universalité. Dans cette partie nous étudions également les propriétés de diffusion du gaz de Lorentz, par la longueur des trajectoires. En calculant la variance de ce quantité, nous montrons que dans le cas d'horizons finis, la variance de longueurs est linéaire par rapport au nombre de collisions de la particule dans le billard. Cette linéarité permet de définir un coefficient de diffusion pour le gaz de Lorentz, et dans un schéma général, elle est compatible avec les résultats obtenus par d'autres méthodes.
510

Femtosecond laser writing of nanogratings on the surface of fused silica

Liang, Feng 19 April 2018 (has links)
Lorsqu’un faisceau laser femtoseconde est fortement focalisé sur des matériaux transparents, une ionisation en cascade peut se produire suite à l’intense ionisation du champ induit par celui-ci. Une fraction de l’énergie laser est absorbée et transférée dans le support produisant un échauffement local. La température à l’intérieur de la zone d’irradiation s’élèvera au point de fusion ou d’ébullition, selon la fluence de l’impulsion incidente et les propriétés du matériau. En conséquence, une légère modification du matériau, la formation de nano-réseaux ou des dommages complexes peuvent se produire. L’explosion de Coulomb peut participer au processus d’enlèvement de matière lorsque le faisceau laser est fortement focalisé sur la surface. Dans cette thèse, nous allons nous concentrer sur la formation de nano-réseaux sur la surface de la silice fondue. Nous mesurons la fluence de l’impulsion nécessaire pour induire des nano-réseaux de surface pour différents espacements entre des impulsions consécutives, pour découvrir et quantifier l’effet d’incubation dans le processus de formation de nano-réseaux. Nous proposons également une équation d’incubation modifiée (seuil d’ablation en fonction de l’espacement entre les impulsions). À l’aide d’un SEM, nous examinons le changement structurel de la morphologie sur la surface induite par la combinaison de différents paramètres d’écriture tels que : l’énergie par impulsion/fluence, l’espacement entre les impulsions et la profondeur de la lumière focalisée sous la surface. Nous montrons ainsi l’évolution des nano-fentes dans le cas statique et pour une petite gamme de fluence d’impulsion et démontrons que des nano-réseaux uniformes peuvent être obtenus lorsque la fluence de l’impulsion est légèrement au-dessus du seuil d’ablation et que la largeur et l’espacement des nano-réseaux dépendent de l’espacement entre les impulsions et de leur fluence. Nous proposons également un nouveau modèle qui inclut les effets de répartition de l’intensité locale et d’incubation. L’évolution progressive de maxima locaux et la formation de nouvelle paires de nanogrooves (cas statique) ou de son autoréplication (cas de numérisation) sur des emplacements spécifiques est en fait la physique derrière le processus de formation qui est fidèlement reproduit dans l’expérience. Jusqu’à maintenant, aucun modèle n’a réussi à bien représenter les phénomènes observés. Finalement, nous présentons les applications potentielles de l’écriture directe d’un certain nombre contrôlable de nanocanaux et nano-réseaux à grande surface. / When a femtosecond laser beam is tightly focused onto transparent materials, strong field ionization followed by avalanche ionization may occur, and a fraction of laser energy is absorbed and transferred into the lattice resulting in local heating. The temperature within the irradiation zone will rise up to the melting or boiling point depending on the incident pulse fluence and material properties. As a result, either smooth modification, or well-shaped nanogratings or complex damage may occur. Coulomb explosion may also participate in the material removal process. In this thesis, we focus on the nanograting inscription on the surface of fused silica. We measure the pulse fluence which is required to induce surface nanogratings for different pulse-to-pulse spacing, uncover and quantify the incubation effect in the nanograting inscription process, and propose a modified incubation equation (ablation threshold as a function of pulse-topulse spacing). Using a scanning electron microscope, we examine the structural change on the surface induced by the combination of different writing parameters such as the pulse energy/fluence, pulse-to-pulse spacing and the depth of the focused light below the surface. We show the shot-to-shot evolution of nanogrooves in the static case for a small range of pulse fluence, and demonstrate that well-shaped nanogratings can be obtained with pulse fluence slightly above the reduced ablation threshold, and that the width and spacing of the nanogratings depend on the pulse-to-pulse spacing and pulse fluence. In particular, we propose a new model which consists of local intensity distribution and incubation effect. The progressive evolution of new local maxima and in turn the formation of new nanogrooves in pairs (static case) or in a self-replicating way (scanning case) at specific locations is in fact the physical focus behind the nanograting inscription, as is faithfully reproduced by the experiment. No previously reported model has ever been successful in that respect. Finally, we discuss and demonstrate the potential applications in direct writing of a controllable number of nanochannels and large-area nanogratings.

Page generated in 0.0669 seconds