• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 191
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 962
  • 353
  • 283
  • 190
  • 149
  • 103
  • 94
  • 91
  • 89
  • 89
  • 86
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Resolution of singularities in foliated spaces / Résolution des singularités dans un espace feuilleté

Belotto Da Silva, André Ricardo 28 June 2013 (has links)
Considérons une variété régulière analytique M sur le corps réel ou complexe, un faisceau d'idéaux J défini sur M, un diviseur à croisement normaux simples E et une distribution singulière involutive Θ tangent à E.L'objectif principal de ce travail est d'obtenir une résolution des singularités du faisceau d'idéaux J qui préserve certaines ``bonnes" propriétés de la distribution singulière Θ. Plus précisément, la propriété de R-monomialité : l'existence d'intégrales premières monomiales. Ce problème est naturel dans le contexte où on doit étudier l'interaction d'une variété et d'un feuilletage et, donc, est aussi reliée au problème de la monomilisation des applications et de résolution ``quasi-lisse" des familles d'idéaux.- Le premier résultat donne une résolution globale si le faisceau d'idéaux J est invariant par la distribution singulière;- Le deuxième résultat donne une résolution globale si la distribution singulière Θ est de dimension 1 ;- Le troisième résultat donne une uniformisation locale si la distribution singulière Θ est de dimension 2.On présente aussi deux utilisations des résultats précédents. La première application concerne la résolution des singularités en famille analytique, soit pour une famille d'idéaux, soit pour une famille de champs de vecteurs. Pour la deuxième, on applique les résultats à un problème de système dynamique, motivé par une question de Mattei. / Let M be an analytic manifold over the real or complex field, J be a coherent and everywhere non-zero ideal sheaf over M, E be a reduced SNC divisor and Θ an involutive singular distribution everywhere tangent to E. The main objective of this work is to obtain a resolution of singularities for the ideal sheaf J that preserves some ``good" properties of the singular distribution Θ. More precisely, the R-monomial property : the existence of local monomial first integrals. This problem arises naturally when we study the ``interaction" between a variety and a foliation and, thus, is also related with the problem of monomialization of maps and of ``quasi-smooth" resolution of families of ideal sheaves.- The first result is a global resolution if the ideal sheaf J is invariant by the singular distribution Θ;- The second result is a global resolution if the the singular distribution Θ has leaf dimension 1;- The third result is a local uniformization if the the singular distribution Θ has leaf dimension 2;We also present two applications of the previous results. The first application concerns the resolution of singularities in families, either of ideal sheaves or vector fields. For the second application, we apply the results to a dynamical system problem motivated by a question of Mattei.
122

L'apport d'un logiciel de simulation d'algorithmes dans le processus enseignement-apprentissage de l'algorithmique chez des apprenants débutants : cas de l'ENSET de Libreville / The contribution of an algorithm simulation software in the algorithmic teaching-learning process for novice learners : case of the Libreville ENSET

Ovono, Médard-Sylvain 04 October 2018 (has links)
Cette thèse a pour objet l’étude de l'apport de l’introduction des technologies de l'information et de la communication pour l'enseignement (TICE) dans le processus enseignement-apprentissage de l'algorithmique chez les apprenants débutants, en particulier une application de simulation d'algorithmes (AlgoBox). L'utilisation de cet artefact computationnel a pour objectif de proposer une contribution afin de juguler le problème du fort taux d'échec constaté par les responsables administratifs et pédagogiques depuis plusieurs années dans l'enseignement de l'algorithmique et de la programmation à l'Ecole Normale Supérieure de l’Enseignement Technique (ENSET) de Libreville. Ainsi, la mise en place d'un dispositif expérimental conformément aux hypothèses émises et faisant suite à une première expérimentation d'identification et d'analyse de certains indicateurs, a permis de faire l'étude de l'apport du logiciel de simulation d'algorithme. Au terme de cette recherche, il est établi une légère augmentation des performances des apprenants vraisemblablement due non seulement à l’apport de l’artefact, mais aussi à la réactivation des connaissances liées aux savoirs implicites portées par la tâche prescrite. Il convient donc de préconiser d’accompagner l’usage de cette application par la mise en œuvre d’une nouvelle approche afin de permettre la construction d’une pédagogie adaptée (Ginestié, 2008). / This thesis has for object to study of the contribution of the introduction of the TICE's in the teaching-learning process of the algorithmics to the novice learners, in particular an application of simulation of algorithmics (AlgoBox). The use of this computational artifact aims at proposing a contribution in order to solvat the problem of the high rate of failure noticed by the administratives and pedagogicals responsibles for several years in the teaching of the algorithmics and programmations at Ecole Normale Supérieure de l'Enseignement Technique (ENSET) of Libreville.Thereby the implementation of an experimental device according to the emitted hypotheses and following upon a first experiment of identification and analysis of certain indicators, has allowed making the study of the contribution of the simulation software of algorithm. At the end of this research, it is therefore note a slight increase in the performances of the learners most probably due not only to the contribution of the artifact, but also to the reactivation of implicit knowledge carried out by the prescribed task. It is thus advisable to foresee to accompany the use of this application by the implementation a new approach so as to allow the construction of an adapted pedagogy (Ginestie, 2008).
123

New approaches in super-resolution microscopy / Nouvelles approches microscope de super-résolution

Yang, Bin 13 April 2015 (has links)
La première méthode vise à améliorer la vitesse d’imagerie de la microscopie super-résolue àtempérature ambiante pour des applications biologiques. En tant qu’une technique de scan, lamicroscopie STED a besoins d’être parallélisé pour faire de l’imagerie rapide en champ large. Nousavons obtenu une parallélisation massive de la microscopie STED en utilisant les réseaux d’optiqueavec une excitation en en champ large et une caméra rapide pour détection. Les images super-résoluesd’un champ de 3 μm par 3 μm sont acquises en scannant une maille élémentaire du réseau optique, quipeut être aussi petite que 290 nm * 290 nm. La microscopie Lattice-STED est démontrée avec unerésolution allant jusqu'à 70 nm à une cadence de 12,5 images par seconde.La deuxième méthode étend la microscopie super-résolue à la température de l’hélium liquide pourdes applications aux technologies quantiques. Des résolutions optiques à l'échelle nanométrique desémetteurs quantique est une étape cruciale vers le contrôle des états délocalisés formés par lesinteractions fortes et cohérentes entre des émetteurs. Dans ce contexte, nous avons développé unetechnique de microscopie à des températures cryogéniques, dénommée la microscopie Essat. Cettetechnique est basée sur la saturation optique de l'état excité des molécules fluorescentes uniques parl’excitation d’un faisceau en forme d’anneau. Une résolution moins de 10 nm est obtenue avec debasses intensités d'excitation, plus de millions de fois plus faibles que celles utilisées dans lamicroscopie STED à la température ambiante. Par rapport aux approches basées sur la superlocalisation,notre technique offre une occasion unique de résoudre sous la limite de diffraction lesmolécules uniques ayant des fréquences de résonance optiques qui se chevauchent. Ceci ouvre la voieà l'étude des interactions cohérentes entre émetteurs uniques et à la manipulation de leur degréd'intrication. / The first technique aims at improving the imaging speed of super-resolution microscopy at roomtemperature for biological applications. As a scanning technique, STED (Stimulated EmissionDepletion) microscopy needs parallelization for fast wide-field imaging. Using well-designed opticallattices for depletion together with wide-field excitation and a fast camera for detection, we achievelarge parallelization of STED microscopy. Wide field of view super-resolved images are acquired byscanning over a single unit cell of the optical lattice, which can be as small as 290 nm * 290 nm.Lattice-STED imaging is demonstrated with a resolution down to 70 nm at 12.5 frames per second.The second one extends super-resolution microscopy to liquid helium temperature for applications inquantum technologies. Optical resolution of solid-state single quantum emitters at the nanometer scaleis a challenging step towards the control of delocalized states formed by strongly and coherentlyinteracting emitters. ESSat (Excited State Saturation) microscopy operating at cryogenic temperaturesis based on optical saturation of the excited state of single fluorescent molecules with a doughnutshapedbeam. Sub-10 nm resolution is achieved with extremely low excitation intensities, more thanmillion times lower than those used in room temperature STED microscopy. Compared to superlocalisationapproaches, our technique offers a unique opportunity to super-resolve single moleculeshaving overlapping optical resonance frequencies, paving the way to the study of coherent interactionsbetween single emitters and to the manipulation of their degree of entanglement.
124

Dynamic rerouting in multimodal transportation networks / Reroutage dynamique des passagers dans les réseaux de transport multimodaux

Dib, Omar 06 November 2017 (has links)
La mobilité humaine s'organise de nos jours dans un contexte multimodal avec des systèmes de transport particulièrement complexes. Le nombre d'usagers va croissant et de nouveaux modes de transport émergent jour après jour en même temps que de nouveaux comportements de mobilité. En conséquence, les utilisateurs se trouvent généralement confrontés à la nécessité de choisir entre plusieurs possibilités pour se rendre d'un point d'origine à leur lieu de destination. Dans le but de les aider à naviguer facilement à travers ces réseaux complexes, un système efficace d'information voyageurs doit être construit. Grâce à ce système, les opérateurs de transport cherchent non seulement à fournir des itinéraires optimaux, mais aussi des solutions efficaces et fiables en cas de perturbations. En réalité, les passagers ne cherchent pas seulement à minimiser le temps de trajet. Ils ont aussi tendance à considérer d'autres critères tels que le confort et l'effort qu'il s'agit alors d'optimiser. Un système de routage efficace devrait donc tenir compte des préférences de chaque passager. En outre, les modes de transport sont souvent enclins à des retards. La prise en considération de l'incertitude est donc un aspect très important pour un calculateur d'itinéraires. Les itinéraires multimodaux proposés doivent non seulement être réalisables dans un cas statique, mais également suffisamment robustes face à des aléas. En outre, tout en intégrant des contraintes essentielles telles que la capacité limitée des véhicules, une attention particulière devrait aussi être accordée à la complexité temporelle des algorithmes de routage développés. L'objectif principal de cette thèse est d'élaborer une formulation qui permet de représenter adéquatement un réseau de transport multimodal. En nous basant sur cette formulation, nous proposons plusieurs algorithmes de routage. Nous nous concentrons en particulier sur la résolution de problèmes de plus courts chemins dans un contexte mono/multicritère dans un réseau de transport dynamique et stochastique. Des métaheuristiques telles que les Algorithmes Génétiques (GA), la méthode de Recherche à Voisinage Variable (VNS) et les Algorithmes Mémétiques (MA) ont été utilisés pour fournir des résultats en temps réel. La performance de calcul a été évaluée en résolvant des requêtes de routage à l'échelle du réseau de transport de la Région française Île-de-France. Les résultats indiquent que les nombreuses instances traitées ont été résolues dans un laps de temps raisonnable et que nos algorithmes de routage sont suffisamment performants pour être intégrés dans un calculateur d'itinéraire multimodal opérationnel. / The human mobility is nowadays organized in a multimodal context with more and more complex transport networks. The number of passengers is increasing and new transport modes enter the system day after day simultaneously with new mobility behaviors. As a result, users usually find themselves more confused when choosing between several possibilities to go from one place to their destination. For the sake of helping them to efficiently navigate through this intricate transportation scheme, an efficient Travelers Information System (TIS) has to be built. Thanks to such a system, the transport operators seek not only to provide passengers with optimal itineraries, but also with efficient and reliable solutions in case of disruptions. In fact, commuters do not only seek short time travels, but they usually consider several other criteria such as comfort and effort. An efficient routing system should therefore take into account the various needs and preferences of each passenger. Besides, transport modes are often prone to delays. Thus, handling uncertainty is also a very important aspect of practical journey planning systems. Moreover, the proposed multimodal routes should not only be feasible in a static case, but also robust against the dynamic and stochastic variations of the transport system. Furthermore, crucial constraints should be taken into account such as the capacity limitation of vehicles and the time complexity of the developed routing algorithms. The main objective of this thesis is to propose a formulation that adequately allows representing a multimodal network. Based on our formulation, we elaborate several efficient routing algorithms. In particular, we focus on solving the Earliest Arrival Problem in a single/multiple criteria context, both in dynamic and stochastic environments. To deal with the real time complexity issue, metaheuristics such as Genetic Algorithms (GA), Variable Neighborhood Search (VNS) and Memetic Algorithms (MA) have been used. The computational performance of this work has been assessed by developing a real world route planning system, and solving real life itinerary planning problems defined on the transport network of the French Region Île-de-France that includes the city of Paris and its suburbs. The emerging computational results indicate that the numerous basic and complex instances were solved within a reasonable amount of time and the integration of the proposed routing framework as a module of an operational TIS is relevant.
125

Restoration super-resolution of image sequences : application to TV archive documents / Restauration super-résolution de séquences d'images : applications aux documents d'archives TV

Abboud, Feriel 15 December 2017 (has links)
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation / The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
126

Synthèse algébrique de lois de commande pour les systèmes à évènements discrets logiques

Hietter, Yann 28 May 2009 (has links) (PDF)
Les travaux présentés dans ce mémoire sont relatifs à l'élaboration formelle de la commande d'un Système à Évènements Discrets (SED) logique à partir des exigences exprimées dans le cahier des charges. La méthode proposée est basée sur la résolution de manière littérale d'un système d'équations représentant ces exigences.<br />Le cadre mathématique, support de ces travaux, est l'algèbre de Boole des fonctions booléennes. Ce cadre mathématique a été retenu pour les raisons suivantes :<br />- Dans le cas particulier des SED logiques non temporisés, toute loi de commande peut être décrite à l'aide de fonctions booléennes.<br />- Les exigences exposées dans un cahier des charges peuvent être formalisées sous forme de relations entre des fonctions booléennes.<br />- Les résultats obtenus dans le cadre de cette thèse nous permettent de déterminer automatiquement quelles sont les fonctions booléennes qui satisfont le système d'équations entre fonctions booléennes représentant ces exigences.<br />La méthode proposée permet au concepteur d'exprimer les exigences dans des formalismes différents. Il a également la possibilité de fixer la forme de la solution qu'il souhaite obtenir ou de ne réaliser la synthèse que sur une partie du modèle.<br />Le chapitre 2 de ce mémoire est consacré à la présentation des résultats mathématiques que nous avons établis pour pouvoir résoudre un système d'équations à n inconnues dans toute structure d'algèbre de Boole. <br />L'approche de synthèse est détaillée au chapitre 3 au travers du traitement de 3 exemples de taille et de complexité croissantes. Nous montrons comment les exigences exprimées dans un cahier des charges peuvent être formalisées sous forme de relations entre des fonctions booléennes. La résolution du système d'équations est réalisée automatiquement grâce à une maquette informatique développée au LURPA.
127

Enregistrement optique haute densité : étude physique et physico-chimique du phénomène de Super-Résolution

Pichon, Joseph 25 September 2008 (has links) (PDF)
Ce travail de thèse s'inscrit dans la thématique du stockage de données sur disques optiques haute densité. Il porte plus précisément sur une technologie visant à accroître la capacité des disques optiques, fondée sur l'emploi de techniques dites de Super-Résolution. Ces disques, qui comprennent des informations théoriquement trop petites pour être détectables, peuvent néanmoins être lus si leurs propriétés optiques varient localement sous l'influence du faisceau laser de lecture. Nous avons mis en évidence ce phénomène dans cette thèse, en insérant unempilements actif de couchesminces au coeur des disques. En particulier, nous avons montré que l'introduction d'une couche mince du matériau semiconducteur InSb permet de doubler la densité des disques optiques au format Blu-Ray, portant ainsi leur capacité à 46 Go. Nous avons également montré, par le biais de caractérisations optiques statiques, que la réflectivité de ce matériau augmente de manière réversible et reproductible sous excitation laser intense. Nous avons évalué l'importance de la thermique dans les mécanismes physiques et physico-chimiques associés à ces variations de propriétés optiques et avons réalisé une modélisation thermo-optique de l'évolution transitoire de la réflectivité des empilements actifs, fondée sur la variation des propriétés optiques de InSb avec la température.
128

Etude de la morphologie de galaxies lointaines à partir de grands relevés en imagerie infrarouge depuis le sol

Huertas, Marc 30 September 2008 (has links) (PDF)
Dans l'Univers local, la distribution de galaxies est bimodale, reflétant la relation existante entre la couleur et la morphologie. <br /> Une question clef en cosmologie observationnelle est de comprendre comment cette dichotomie est apparue au cours de l'histoire de l'Univers. Les relevés de galaxies ont pour but d'isoler des populations de galaxies à différentes époques cosmiques et de suivre leur évolution. Quantifier de manière fiable les morphologies de galaxies lointaines demeure cependant un obstacle majeur.<br /> Dans le visible, les progrès durant les dix dernières années proviennent essentiellement de données acquises par le télescope spatial Hubble (HST) grâce à la haute résolution angulaire délivrée. Au delà de z~1 pourtant, les caméras visibles du HST sondent le flux UV des galaxies ce qui peut biaiser la morphologie estimée vers des types tardifs. De ce point de vue, les observations dans le proche infrarouge au delà de z~1 sont particulièrement importantes puisque la lumière analysée provient d'étoiles évoluées et est donc moins affectée par des épisodes récents de formation stellaire. <br /> Dans cette thèse, on s'interroge sur la possibilité de quantifier les morphologies de galaxies lointaines dans l'infrarouge proche à l'aide de télescopes au sol afin de quantifier les effets de k-correction morphologique.<br /> Dans un premier temps, l'utilisation d'optique adaptative pour corriger les effets de la turbulence atmosphérique est explorée. On présente l'analyse de 79 galaxies observées avec le système d'optique adaptative NaCo du Very Large Telescope (VLT). Les limites sont obtenues grâce à des simulations exhaustives et des comparaisons avec le télescope spatial. Une première estimation de l'évolution morphologique depuis z~1.2 est obtenue à partir de cet échantillon. La comparaison avec les morphologies obtenues avec le télescope spatial laisse entrevoir des différences mais l'échantillon est trop petit pour extraire des conclusions robustes. Un programme d'observations plus large est proposé.<br /> Dans un deuxième temps, des améliorations aux méthodes classiques non-paramétriques d'estimation morphologique sont proposées (nombre illimité de paramètres simultanés, frontières non linéaires) afin de pouvoir analyser des données observées à travers l'atmosphère. On démontre que ces améliorations permettent une estimation morphologique en deux grands types (elliptique, spirale) avec un taux de réussite de ~80% sur des données limitées par le seeing. Le code source a été mis à disposition de la communauté. <br /> La méthode développée est ensuite employée pour analyser un échantillon de ~50000 galaxies dans l'infrarouge proche. L'évolution morphologique depuis z~2 est obtenue et une quantification des effets de k-correction morphologique est présentée par comparaison avec des données spatiales. On observe une augmentation de la fraction de galaxies elliptiques depuis z~2 (~20%) jusqu'à nos jours (~30%). La classification obtenue est globalement en bon accord avec celle obtenue avec des données spatiales dans le visible jusqu'à z~1. Au delà, la classification infrarouge a tendance à trouver ~1.5 fois plus de galaxies précoces.
129

Optimisation par renommage dans la méthode de résolution

Boy De La Tour, Thierry 21 January 1991 (has links) (PDF)
La technique du renommage, appliquée exhaustivement, permet d'obtenir une forme clausale polynomiale. Nous choisissons de l'appliquer partiellement, de façon a minimiser certains criteres syntaxiques, principalement le nombre de clauses, tout en conservant une complexité polynomiale. Nous montrons qu'un algorithme efficace permet d'obtenir le nombre optimal de clauses sur les formules linéaires. Enfin, nous étudions l'influence de ces transformations sur les réfutations par la methode de resolution, autant théoriquement expérimentalement
130

Le raisonnement spatial dans les systèmes à base de connaissances : application à l'analyse de sites avalancheux

Buisson, Laurent 05 November 1990 (has links) (PDF)
Les connaissances spatiales sont définies a partir d'une classification qui met en évidence l'importance de la topologie. L'examen d'applications différentes montre que le raisonnement spatial revêt souvent trois formes particulières non exclusives les unes des autres: la construction de topologies, l'inférence de propriétés spatiales et la localisation d'objets. Les données et les mécanismes d'inférence qui sont utilises peuvent être introduits dans des systèmes a base de connaissances qui servent alors de support au raisonnement spatial. Son graphe de dépendances possède, par ailleurs, des particularités qu'il est intéressant et, parfois, nécessaire d'exploiter pour gérer la dynamique de ces bases de connaissances spatiales. Les résultats d'inférences doivent en particulier être enregistres et le maintien de la vérité qu'exige cet enregistrement peut être facilite en exploitant une forme de localité au sein de ce graphe. Ces considérations prennent appui sur l'expérience du développement du système Elsa, destine a l'analyse de sites avalancheux. D'autres utilisations des bases de connaissances spatiales ont également été étudiées: modélisation symbolique de phénomènes spatiaux, environnements de resolution de problèmes et bases de connaissances géographiques. Elsa utilise une représentation de connaissances par objets, qui se révèle bien adaptée même si des extensions apparaissent utiles; il s'agit notamment de la prise en compte, au sein du modèle de représentation, des relations entre objets, de l'insertion d'un filtrage constructif et d'une ouverture plus grande du langage de requête. Le fait que ces extensions ne soient pas propres a l'espace et qu'elles puissent concerner d'autres types de connaissances suggère que le raisonnement sur l'espace, a défaut d'être spécifique, apparait comme un révélateur des besoins du raisonnement en général

Page generated in 0.0528 seconds