• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 40
  • 12
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 163
  • 65
  • 23
  • 20
  • 20
  • 15
  • 15
  • 14
  • 14
  • 14
  • 12
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Optimisation d'une source d'harmoniques d'ordres élevés pour l'optique non-linéaire dans l'extrème UV.

Kazamias-Moucan, Sophie 03 January 2003 (has links) (PDF)
Cette thèse présente le travail réalisé sur la source harmoniques du LOA à partir d'une chaine Titane-Saphir kHz. Cette étude s'inscrit dans la perspective d'observer des effets non linéaires dus à l'interaction d'un faisceau harmonique intense focalisé sur cible solide. Nous présentons l'étude de l'optimisation de cette source, qui permet de générer efficacement des harmoniques en limite d'absorption. Un cadre complet d'étude de ces conditions d'optimisation du point de vue théorique et expérimental est défini avec notamment une explication détaillée de l'importance de la diaphragmation du faisceau infrarouge. Nous montrons également comment la technique des algorithmes génétiques a été utilisé par le controle de la phase spectrale du laser de pompe. Nous concluons sur la focalisation des harmoniques.
122

Formation spontanée de chemins : des fourmis aux marches aléatoires renforcées / Spontaneous paths formation : from ants to reinforced random walk

Le Goff, Line 15 December 2014 (has links)
Cette thèse est consacrée à la modélisation de la formation spontanée de chemins préférentiels par des marcheurs déposant des traces attractives sur leurs trajectoires. Plus précisément, par une démarche pluridisciplinaire couplant modélisation et expérimentation, elle vise à dégager un ensemble de règles minimales individuelles permettant l'apparition d'un tel phénomène. Dans ce but, nous avons étudié sous différents angles les modèles minimaux que sont les marches aléatoires renforcées (MAR).Ce travail comporte deux parties principales. La première démontre de nouveaux résultats dans le domaine des probabilités et statistiques. Nous avons généralisé le travail publié par M. Benaïm et O. Raimond en 2010 afin d'étudier l'asymptotique d'une classe de MAR auxquelles les demi-tours sont interdits. Nous avons également développé une procédure statistique permettant, sous certaines conditions adéquates de régularité, d'estimer les paramètres de MAR paramétrées et d'évaluer des marges d'erreur.Dans la seconde partie, sont décrits les résultats et analyses d'une étude comportementale et expérimentale de la fourmi Linepithema humile. Une partie de notre réflexion est centrée sur le rôle et la valeur des paramètres du modèle proposé par J.-L. Deneubourg et al. en 1990. Nous nous sommes aussi demandés dans quelle mesure une MAR peut reproduire les déplacements d'une fourmi dans un réseau. Dans ces objectifs, nous avons mené des expériences confrontant des fourmis à des réseaux à une ou plusieurs bifurcations. Nous avons appliqué aux données expérimentales les outils statistiques développés dans cette thèse. Nous avons aussi effectué une étude comparative entre les simulations de plusieurs modèles et les expériences. / This thesis is devoted to the modelisation of the spontaneous formation of preferential paths by walkers that deposit attractive trails on their trajectories. More precisely, through a multidisciplinary approach, which combines modelisation and experimentation, this thesis aims to bring out a set of minimal individual rules that allow the apparition of this phenomena. In this purpose, we study in several ways the minimal models, which are the Reinforced Random Walks (RRW).This work contains two main parts. The first one proves some new results in the field of probability and statistics. We have generalized the work published by M. Benaïm and O. Raimond in 2010 in order to study the asymptotics of a class of RRW, to which U-turns are forbidden. We developped also a statistical procedure that allows under some appropriate regularity hypotheses to estimate the parameters of parametized RRW and to evaluate margins of error.In the second part, we describe the results and the analyses of a experimental and behavioral study of the Linepithema humile ants. One part of our reflection is centered on the role and the value of the parameters of the model defined by J.-L. Deneubourg et al. in 1990. We investigated also the extent to which RRW could reproduce the moving of an ant in a network. To these purposes, we performed experiments that confront ants to a network of one or several forks. We applied to experimental data the statistical tools developed in this thesis and we performed a comparative study between experiments and simulations of several models.
123

Détermination de propriétés de flot de données pour améliorer les estimations de temps d'exécution pire-cas / Lookup of data flow properties to improve worst-case execution time estimations

Ruiz, Jordy 21 December 2017 (has links)
La recherche d'une borne supérieure au temps d'exécution d'un programme est une partie essentielle du processus de vérification de systèmes temps-réel critiques. Les programmes de tels systèmes ont généralement des temps d'exécution variables et il est difficile, voire impossible, de prédire l'ensemble de ces temps possibles. Au lieu de cela, il est préférable de rechercher une approximation du temps d'exécution pire-cas ou Worst-Case Execution Time (WCET). Une propriété cruciale de cette approximation est qu'elle doit être sûre, c'est-à-dire qu'elle doit être garantie de majorer le WCET. Parce que nous cherchons à prouver que le système en question se termine en un temps raisonnable, une surapproximation est le seul type d'approximation acceptable. La garantie de cette propriété de sûreté ne saurait raisonnablement se faire sans analyse statique, un résultat se basant sur une série de tests ne pouvant être sûr sans un traitement exhaustif des cas d'exécution. De plus, en l'absence de certification du processus de compilation (et de transfert des propriétés vers le binaire), l'extraction de propriétés doit se faire directement sur le code binaire pour garantir leur fiabilité. Toutefois, cette approximation a un coût : un pessimisme - écart entre le WCET estimé et le WCET réel - important entraîne des surcoûts superflus de matériel pour que le système respecte les contraintes temporelles qui lui sont imposées. Il s'agit donc ensuite, tout en maintenant la garantie de sécurité de l'estimation du WCET, d'améliorer sa précision en réduisant cet écart de telle sorte qu'il soit suffisamment faible pour ne pas entraîner des coûts supplémentaires démesurés. Un des principaux facteurs de surestimation est la prise en compte de chemins d'exécution sémantiquement impossibles, dits infaisables, dans le calcul du WCET. Ceci est dû à l'analyse par énumération implicite des chemins ou Implicit Path Enumeration Technique (IPET) qui raisonne sur un surensemble des chemins d'exécution. Lorsque le chemin d'exécution pire-cas ou Worst-Case Execution Path (WCEP), correspondant au WCET estimé, porte sur un chemin infaisable, la précision de cette estimation est négativement affectée. Afin de parer à cette perte de précision, cette thèse propose une technique de détection de chemins infaisables, permettant l'amélioration de la précision des analyses statiques (dont celles pour le WCET) en les informant de l'infaisabilité de certains chemins du programme. Cette information est passée sous la forme de propriétés de flot de données formatées dans un langage d'annotation portable, FFX, permettant la communication des résultats de notre analyse de chemins infaisables vers d'autres analyses. Les méthodes présentées dans cette thèse sont inclues dans le framework OTAWA, développé au sein de l'équipe TRACES à l'IRIT. Elles usent elles-mêmes d'approximations pour représenter les états possibles de la machine en différents points du programme. / The search for an upper bound of the execution time of a program is an essential part of the verification of real-time critical systems. The execution times of the programs of such systems generally vary a lot, and it is difficult, or impossible, to predict the range of the possible times. Instead, it is better to look for an approximation of the Worst-Case Execution Time (WCET). A crucial requirement of this estimate is that it must be safe, that is, it must be guaranteed above the real WCET. Because we are looking to prove that the system in question terminates reasonably quickly, an overapproximation is the only acceptable form of approximation. The guarantee of such a safety property could not sensibly be done without static analysis, as a result based on a battery of tests could not be safe without an exhaustive handling of test cases. Furthermore, in the absence of a certified compiler (and tech- nique for the safe transfer of properties to the binaries), the extraction of properties must be done directly on binary code to warrant their soundness. However, this approximation comes with a cost : an important pessimism, the gap between the estimated WCET and the real WCET, would lead to superfluous extra costs in hardware in order for the system to respect the imposed timing requirements. It is therefore important to improve the precision of the WCET by reducing this gap, while maintaining the safety property, as such that it is low enough to not lead to immoderate costs. A major cause of overestimation is the inclusion of semantically impossible paths, said infeasible paths, in the WCET computation. This is due to the use of the Implicit Path Enumeration Technique (IPET), which works on an superset of the possible execution paths. When the Worst-Case Execution Path (WCEP), corresponding to the estimated WCET, is infeasible, the precision of that estimation is negatively affected. In order to deal with this loss of precision, this thesis proposes an infeasible paths detection technique, enabling the improvement of the precision of static analyses (namely for WCET estimation) by notifying them of the infeasibility of some paths of the program. This information is then passed as data flow properties, formatted in the FFX portable annotation language, and allowing the communication of the results of our infeasible path analysis to other analyses.
124

Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif / Thin structures detection by means of image processing and statistical learning : application to non-destructive testing

Morard, Vincent 22 October 2012 (has links)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d’images pourextraire ou rehausser les éléments fins d’une image. Pour ces opérateurs, issus de la morphologie mathématique,l’accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d’extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d’opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd’analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d’analyse statistique en introduisantune nouvelle pénalisation adaptative. L’objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d’images et l’analyse statistique. L’association de ces deux disciplines permet d’améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d’images alliés à un apprentissagesupervisé ou non supervisé, permettent d’adapter le traitement à chaque application.Mots clés : Traitement d’images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage. / This PhD is dedicated to new image processing methods to extract or enhance thinobjects from an image. These methods stem from mathematical morphology, and they mainly focuson the accuracy of the detection and on the computation time. This second constraint is imposed bythe fact that we are dealing with high-throughput applications. The first part of this thesis presentsthese methods, organized according to the tortuosity of the objects to detect. We first propose afast algorithm for the computation of 1-D openings, used to extract thin and straight structures in theimages. Then, we study a new class of fast operators, parsimonious path openings, which can extractthin structures with moderate tortuosities. Finally, we propose new adaptive structuring elementsand new thinnings with geodesic and geometric attributes to filter out the noise and to enhance thinstructures of any tortuosity.Besides, we have developed a machine learning method by introducing a new adaptive penalization.We aim at creating a predictive model that minimizes a cost function (independent of the data)while preserving a good accuracy. When this cost function is linked to the computation time of eachfeature, the resulting models will optimize the timings, while preserving a good accuracy. This methodis a generalization of linear and logistic regressions with Ridge, Forward stagewise, Lar or Lassopenalization.The algorithms developed in this thesis have been used for three industrial applications. While theirobjectives are very different, the framework is the same (non-destructive testing) and they all involvea multidisciplinary approach (images processing and statistical analysis). The combination of thesetwo fields yields a higher flexibility in comparison with classical methods. Generic strategies are used,since image processing operators are associated to statistical learning (supervised or unsupervised)to make a specific treatment for each application.Keywords: Image processing, mathematical morphology, statistical analysis, pattern recognition,non destructive testing, parsimonious path openings, region growing structuring elements, geodesicand topologic attributes thinnings, adaptive coefficient shrinkage.
125

L’avenir des services publics passe-t-il par les entreprises privées? Etude comparée des méthodes et enjeux du partenariat public-privé en France, en Italie et au Royaume-Uni / Are private companies in the future of public services? Comparative study of methods and stakes of the public-private partnership in France, in Italy and in the United-Kingdom

Vague, Pierre-Marie 05 May 2011 (has links)
Le partenariat public-privé dans les services publics consiste en l’exploitation par des entreprises privées de services publics, pour le compte d’autorités publiques. En France, en Italie et au Royaume-Uni, le droit du service public et les valeurs morales et politiques ont dessiné des modèles opposés d’action. Le fait de rapprocher logique publique et privée peut cependant être profitable pour la qualité des services, les finances publiques et la pertinence de la mission de protection de l’intérêt général par les pouvoirs publics. / Public-private partnership in public services means the provision of public services by private companies on behalf public authorities. In France, in Italy and in the United-Kingdom, the law of public services and moral and political values have drawn models of action that are opposed. However, making closer public and private logic may be valuable for the quality of public services as well as for public funds and enhances public powers’ mission of protection of the general interest.
126

Etude structurelle et algorithmique des graphes pouvant être séparés avec des plus courts chemins / Structural and algorithmic studies of graphs can be separated using shortest paths

Diot, Emilie 08 December 2011 (has links)
Les graphes sont des objets couramment utilisés pour modéliser de nombreuses situations réelles comme des réseaux routiers, informatiques ou encore électriques. Ils permettent de résoudre des problèmes sur ces réseaux comme le routage (aller d'un sommet à un autre en suivant les arêtes du graphe) ou encore leur exploration (obtenir une carte du graphe étudié). Les réseaux étudiés, et donc les graphes qui les modélisent, peuvent être grands, c'est-à-dire avoir un très grand nombre de sommets. Dans ce cas, comme dans le cas de l'étude de grandes données en général, nous pouvons utiliser le paradigme << Diviser pour mieux régner >> pour répondre aux questions posées. En effet, en travaillant sur des petites parties du graphe et en fusionnant les résultats obtenus sur ces petites parties, on peut obtenir le résultat sur le graphe global. Dans ce document, nous présenterons une manière de décomposer les graphes en utilisant des plus courts chemins comme séparateurs. Cette décomposition permet d'obtenir, par exemple, un routage efficace, un étiquetage compacte pour pouvoir estimer les distances entre les sommets d'un graphe ou encore une navigation efficace dans les graphes<< petit monde >>. Cette méthode va nous permettre de définir de nouvelles classes de graphes. / Graphs are widely used to MODELISER a lot of real situations like road networks, computers networks or electricity ones. Using them, we can solve problems on these networks like routing (go from a vertex ti another one) or explore them (to have a map of studied graph).Studied networks, and so graphs which MODELISER them, can be large (i.e. have a lot of vertices). In this case, we can use the paradigm "Divide and conquer" to answer the questions. Indeed, working on small parts of graphs and merging the results on these small parts, we can obtain the result on the whole graph.In this document, we present a way to separate graphs using shortest paths like separators. This decomposition let to obtain a compact routing, a compact labeling to estimate the distance between vertices of the graph. This method let us to define new class of graphs.
127

Chemins rugueux issus de processus discrets / Rough paths arising from discrete processes

Lopusanschi, Olga 18 January 2018 (has links)
Le présent travail se veut une contribution à l’extension du domaine des applications de la théorie des chemins rugueux à travers l’étude de la convergence des processus discrets, qui permet un nouveau regard sur plusieurs problèmes qui se posent dans le cadre du calcul stochastique classique. Nous étudions la convergence en topologie rugueuse, d’abord des chaînes de Markov sur graphes périodiques, ensuite des marches de Markov cachées, et ce changement de cadre permet d’apporter des informations supplémentaires sur la limite grâce à l’anomalie d’aire, invisible en topologie uniforme. Nous voulons montrer que l’utilité de cet objet dépasse le cadre des équations différentielles. Nous montrons également comment le cadre des chemins rugueux permet d’en- coder la manière dont on plonge un modèle discret dans l’espace des fonctions continues, et que les limites des différents plongements peuvent être différenciées précisément grâce à l’anomalie d’aire. Nous définissons ensuite les temps d’occupation itérés pour une chaîne de Markov et montrons, en utilisant les sommes itérées, qu’ils donnent une structure combinatoire aux marches de Markov cachées. Nous proposons une construction des chemins rugueux en passant par les sommes itérées et la comparons à la construction classique, faite par les intégrales itérées, pour trouver à la limite deux types de chemins rugueux différents, non-géométrique et géométrique respectivement. Pour finir, nous illustrons le calcul et la construction de l’anomalie d’aire et nous donnons quelques résultats supplémentaires sur la convergence des sommes et temps d’occupation itérés. / Through the present work, we hope to contribute to extending the domain of applications of rough paths theory by studying the convergence of discrete processes and thus allowing for a new point of view on several issues appearing in the setting of classical stochastic calculus. We study the convergence, first of Markov chains on periodic graphs, then of hidden Markov walks, in rough path topology, and we show that this change of setting allows to bring forward extra information on the limit using the area anomaly, which is invisible in the uniform topology. We want to show that the utility of this object goes beyond the setting of dierential equations. We also show how rough paths can be used to encode the way we embed a discrete process in the space of continuous functions, and that the limits of these embeddings dier precisely by the area anomaly term. We then define the iterated occupation times for a Markov chain and show using iterated sums that they form an underlying combinatorial structure for hidden Markov walks. We then construct rough paths using iterated sums and compare them to the classical construction, which uses iterated integrals, to get two dierent types of rough paths at the limit: the non-geometric and the geometric one respectively. Finally, we illustrate the computation and construction of the area anomaly and we give some extra results on the convergence of iterated sums and occupation times.
128

Système de planification de chemins aériens en 3D : préparation de missions et replanification en cas d'urgence / System for 3D flight planning : mission preparation and emergency replanning

Baklouti, Zeineb 13 September 2018 (has links)
L’enjeu de planification de vol à bord d’un hélicoptère en tenant compte des différents paramètres environnementaux constitue un facteur clé dans le secteur aéronautique afin d’assurer une mission en toute sécurité avec un coût réduit. Ce défi concerne à la fois la phase de préparation de la mission sur une station au sol mais aussi en cours de vol pour faire face à un évènement imprévu. Nous citons un premier exemple de mission de type recherche et sauvetage qui dispose d’un temps limité pour localiser et rechercher des personnes en danger. Pour ce faire, le plan de vol généré doit suivre le relief du terrain à des altitudes relativement basses entre des points de passage désignés. L’objectif est de permettre au pilote de localiser une victime dans une durée bornée. Un deuxième type de mission comme l’assistance médicale a la particularité d’assurer un vol qui favorise le confort du passager ainsi qu’une route qui minimise le temps de vol selon la criticité de la situation. Pendant la phase dynamique, lorsqu’il s’agit d’un événement complexe telle qu’une panne moteur, une replanification de la mission devient nécessaire afin de trouver un chemin aérien qui permet d’atterrir en toute sécurité dans les plus brefs délais. Dans un autre exemple comme l’évitement d’obstacle dynamique ou de zone dangereuse, il s’agit de calculer un autre plan de vol pour atteindre la destination. Cependant à ce jour, les pilotes ne bénéficient pas de système d’autoroutage 3D permettant la replanification dynamique de mission face à une situation d’urgence. Face au défi de génération d’un plan de vol optimal, nos réflexions profondes ont abouti à la proposition d’un nouveau système de planification de chemin, pour des aéronefs, dédié à la préparation de mission avant le vol ainsi qu’à la replanification dynamique en cours de vol face à une situation d’urgence. Le système de planification peut être déployé sur une station au sol ou bien intégré comme fonction avionique au sein de l’aéronef. Les résultats obtenus ont abouti à un brevet déposé devant l’INPI et à plusieurs actions de transfert technologique au sein d’Airbus Hélicoptères. Le système s’appuie sur des techniques de discrétisation de l’espace et de calcul du plus court chemin afin de générer automatiquement des solutions flexibles en terme de profil de chemin en respectant plusieurs contraintes liées à l’appareil, le terrain et l’environnement. La solution proposée est générique et capable de s’adapter selon le type de l’aéronef, le type de la mission et la fonction objectif à minimiser. Le système de planification peut offrir des solutions avec différents compromis entre le temps d’exécution et la qualité du chemin selon le temps disponible qui peut être corrélé avec la criticité de la situation. Le fonctionnement du système de planification de chemin se compose principalement de deux phases : le prétraitement et le routage. La phase de prétraitement permet une discrétisation multi-altitude de l’espace 3D selon une précision donnée et la génération automatique d’un graphe de navigation avec une connexité paramétrable. La phase de routage 3D calcule le chemin en prenant en considération un ensemble de contraintes telles que les limitations angulaires en horizontal et en vertical et une fonction objectif à minimiser tels que la distance, le carburant, le temps, etc. Lors de la phase d’exploration du graphe, le système de planification peut communiquer avec le modèle de performance de l’appareil afin de minimiser une fonction coût liée à la performance et de s’assurer au fur et à mesure de la faisabilité de la mission. La génération automatique des plans de vol et la replanification dynamique représentent une brique essentielle pour concevoir des systèmes d’assistance au pilote ainsi que des aéronefs autonomes. / Helicopter flight planning is a key factor in the aeronautics domain in order to ensure a safe mission at a reduced cost taking into consideration different environmental parameters like terrain, weather, emergency situations, etc. This challenge concerns both the mission preparation phase using a ground station and also during the flight to cope with a complex event (mechanical failure, dynamic obstacle, bad weather conditions, etc.). We quote as a first example a Search and Rescue mission that should be performed in limited time to locate persons in danger. To achieve that, the generated flight path must follow the terrain profile at relatively low altitudes crossing the predefined waypoints. The objective is to allow the pilot to locate a victim in a short time. Another example for a mission of medical assistance where the helicopter should ensure the comfort of patients as well as minimizing the flight time to respect critical situations. During the flight, when a complex event occurs such as engine failure, re-planning the mission becomes necessary in order to find a new path that could guarantee safe landing. Unfortunately, pilots do not benefit from an embedded 3D path planning system that enables dynamic mission re-planning in case of emergency. To tackle the challenge of generating an optimal flight plan, we proposed new path planning system dedicated to mission preparation and dynamic path re-planning during critical situations. The planning system can be deployed on a ground station or embedded as an avionic function in the aircraft. The achieved results are registered as a patent at National Institute of Intellectual Property and deployed inside Airbus Helicopters through several technology transfers. The system relies on 3D space discretization and shortest path planning techniques to generate automatically flexible path profiles that respect several. The proposed solution is generic and is able to adapt to the aircraft model, mission and the objective function to be minimized. The path planning system can offer solutions with different tradeoffs between timing and path quality within the available runtime depending on the criticality of the situation. The functioning of the path planning system consists mainly of two phases : preprocessing and routing phase. The preprocessing allows a multi-altitude discretization of the 3D space according to a given precision and generate automatically a navigation graph with a configurable density. The 3D routing phase calculates the path by considering a set of constraints such as horizontal and vertical angular limitations and the objective function such as distance, fuel, time, etc. During the graph exploration phase, the path planning system can communicate with the aircraft performance model to evaluate a given criterion. Automatic flight path generation is an essential building block for designing pilot assistance systems and autonomous aircraft. In summary, we succeeded to reach the industrial expectations namely : the evaluation of mission feasibility, performances improvement, navigation workload reduction, as well as improving the flight safety. In order to realize the proposed solution, we designed a new tool for automatic 3D flight path planning. We named our tool DTANAV : Demonstration Tool for Aircraft NAVigation. It allows to apply the proposed planning process on real scenarios. Through the tool interface, the user has the possibility to set the parameters related to the mission (starting point, end point, aircraft model, navigation ceiling, etc.). Other algorithmic parameters are defined in order to control the quality and the profile of the generated solution.
129

Extension de l'homomorphisme de Calabi aux cobordismes lagrangiens

Mailhot, Pierre-Alexandre 09 1900 (has links)
Ce mémoire traite de la construction d’un nouvel invariant des cobordismes lagrangiens. Cette construction est inspirée des travaux récents de Solomon dans lesquels une extension de l’homomorphisme de Calabi aux chemins lagrangiens exacts est donnée. Cette extension fut entre autres motivée par le fait que le graphe d’une isotopie hamiltonienne est un chemin lagrangien exact. Nous utilisons la suspension lagrangienne, qui associe à chaque chemin lagrangien exact un cobordisme lagrangien, pour étendre la construction de Solomon aux cobordismes lagrangiens. Au premier chapitre nous donnons une brève exposition des propriétés élémentaires des variétés symplectiques et des sous-variétés lagrangiennes. Le second chapitre traite du groupe des difféomorphismes hamiltoniens et des propriétés fondamentales de l’homomorphisme de Calabi. Le chapitre 3 est dédié aux chemins lagrangiens, l’invariant de Solomon et ses points critiques. Au dernier chapitre nous introduisons la notion de cobordisme lagrangien et construisons le nouvel invariant pour finalement analyser ses points critiques et l’évaluer sur la trace de la chirurgie de deux courbes sur le tore. Dans le cadre de ce calcul, nous serons en mesure de borner la valeur du nouvel invariant en fonction de l’ombre du cobordisme, une notion récemment introduite par Cornea et Shelukhin. / In this master's thesis, we construct a new invariant of Lagrangian cobordisms. This construction is inspired by the recent works of Solomon in which an extension of the Calabi homomorphism to exact Lagrangian paths is given. Solomon's extension was motivated by the fact that the graph of any Hamiltonian isotopy is an exact Lagrangian path. We use the Lagrangian suspension construction, which associates to every exact Lagrangian path a Lagrangian cobordism, to extend Solomon's invariant to Lagrangian cobordisms. In the first chapter, we give a brief introduction to the elementary properties of symplectic manifolds and their Lagrangian submanifolds. In the second chapter, we present an introduction to the group of Hamiltonian diffeomorphisms and discuss the fundamental properties of the Calabi homomorphism. Chapter 3 is dedicated to Lagrangian paths, Solomon's invariant and its critical points. In the last chapter, we introduce the notion of Lagrangian cobordism and we construct the new invariant. We analyze its critical points and evaluate it on the trace of the Lagrangian surgery of two curves on the torus. In this setting we further bound the new invariant in terms of the shadow of the cobordism, a notion recently introduced by Cornea and Shelukhin.
130

Neural probabilistic path prediction : skipping paths for acceleration

Peng, Bowen 10 1900 (has links)
La technique de tracé de chemins est la méthode Monte Carlo la plus populaire en infographie pour résoudre le problème de l'illumination globale. Une image produite par tracé de chemins est beaucoup plus photoréaliste que les méthodes standard tel que le rendu par rasterisation et même le lancer de rayons. Mais le tracé de chemins est coûteux et converge lentement, produisant une image bruitée lorsqu'elle n'est pas convergée. De nombreuses méthodes visant à accélérer le tracé de chemins ont été développées, mais chacune présente ses propres défauts et contraintes. Dans les dernières avancées en apprentissage profond, en particulier dans le domaine des modèles génératifs conditionnels, il a été démontré que ces modèles sont capables de bien apprendre, modéliser et tirer des échantillons à partir de distributions complexes. Comme le tracé de chemins dépend également d'un tel processus sur une distribution complexe, nous examinons les similarités entre ces deux problèmes et modélisons le processus de tracé de chemins comme un processus génératif. Ce processus peut ensuite être utilisé pour construire un estimateur efficace avec un réseau neuronal afin d'accélérer le temps de rendu sans trop d'hypothèses sur la scène. Nous montrons que notre estimateur neuronal (NPPP), utilisé avec le tracé de chemins, peut améliorer les temps de rendu d'une manière considérable sans beaucoup compromettre sur la qualité du rendu. Nous montrons également que l'estimateur est très flexible et permet à un utilisateur de contrôler et de prioriser la qualité ou le temps de rendu, sans autre modification ou entraînement du réseau neuronal. / Path tracing is one of the most popular Monte Carlo methods used in computer graphics to solve the problem of global illumination. A path traced image is much more photorealistic compared to standard rendering methods such as rasterization and even ray tracing. Unfortunately, path tracing is expensive to compute and slow to converge, resulting in noisy images when unconverged. Many methods aimed to accelerate path tracing have been developed, but each has its own downsides and limitiations. Recent advances in deep learning, especially with conditional generative models, have shown to be very capable at learning, modeling, and sampling from complex distributions. As path tracing is also dependent on sampling from complex distributions, we investigate the similarities between the two problems and model the path tracing process itself as a conditional generative process. It can then be used to build an efficient neural estimator that allows us to accelerate rendering time with as few assumptions as possible. We show that our neural estimator (NPPP) used along with path tracing can improve rendering time by a considerable amount without compromising much in rendering quality. The estimator is also shown to be very flexible and allows a user to control and prioritize quality or rendering time, without any further training or modifications to the neural network.

Page generated in 0.0642 seconds