• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1673
  • 266
  • 117
  • 61
  • 15
  • 9
  • 7
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 2202
  • 2202
  • 1964
  • 1950
  • 1937
  • 438
  • 389
  • 335
  • 220
  • 215
  • 186
  • 176
  • 176
  • 175
  • 172
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Proposition et simulation de modèles numériques de compréhension d'un patrimoine : le théâtre romain de Byblos au Liban

El-Khoury, Nada 09 June 2008 (has links) (PDF)
Notre thèse présente les résultats d'expériences effectuées à l'aide des nouvelles technologies de l'information et de la communication (TIC) dans un contexte de conception d'un projet d'aménagement d'un site où l'on doit intégrer une dimension patrimoniale. Les nouvelles technologies disponibles aujourd'hui offrent des caractéristiques qui ne limitent pas leur rôle à de simples outils de communication ou de représentation. En effet, de plus en plus de recherches sont axées sur l'intervention de l'outil informatique comme assistant dans un processus de conception. Il est possible, à l'aide de cet assistant, d'intégrer certains facteurs qui seront pris en compte lors de la création d'un espace architectural, en l'occurrence le patrimoine du lieu. Précédée par une recherche exploratoire, cette étude propose des modèles de compréhension d'un patrimoine, qui jouent le rôle d'aide à la conception en intégrant des thématiques liées au patrimoine. En fonction de ces thématiques, nous avons sélectionné un lieu propice aux expériences envisagées et dont l'avantage est d'offrir des informations sur le riche patrimoine du lieu pour en faciliter la compréhension. Il s'agit du site historique de Byblos au Liban. En considérant cette étude de cas, nous avons construit des modèles utilisant une méthode de simulation numérique. Nous avons ainsi réalisé des dispositifs numériques qui ont la particularité de pouvoir intégrer le patrimoine spécifique d'un lieu de manière à fournir des réponses aux exigences du concepteur d'un espace architectural qui souhaiterait en tenir compte. Les modèles numériques présentés ont un caractère dynamique, interactif et renouvelable avec une approche multidisciplinaire. Les expériences ont été effectuées et testées dans un espace de travail collaboratif et ont permis de répondre à la question de la recherche : Comment à l'aide des TIC, est-il possible de prendre en compte un patrimoine spécifique lors d'un processus de conception ? Notre démarche nous a permis de vérifier l'hypothèse de recherche qui consiste à dire qu'il est possible de simuler des modèles numériques de compréhension d'un patrimoine, des modèles susceptibles d'aider le concepteur d'un espace à prendre en compte le patrimoine spécifique du lieu dans le processus de conception. Les résultats obtenus montrent que les TIC peuvent être mises à contribution pour améliorer la conception d'un espace architectural en fonction de son caractère patrimonial. Ils pourront servir de base pour une mise en application ultérieure à la conception d'espaces en fonction du caractère patrimonial d'un lieu. Comme apport à la connaissance, cette recherche contribue, non seulement à la mise au point de modèles numériques de compréhension capables d'aider un concepteur dans sa tâche d'aménagement d'un espace, en intégrant une dimension patrimoniale, mais elle contribue aussi à ouvrir des voies de développement vers de nouveaux outils d'aide à la conception liés aux TIC, et à créer des lieux d'échange de connaissances dans une approche multidisciplinaire. Parmi les retombées, cette recherche ouvre la voie au développement d'outils de sensibilisation au patrimoine et favorise son enseignement. En s'appuyant sur les dernières évolutions du Web vers le Web 2.0 et des nouvelles approches pour la gestion de contenus de site web, comme les wikis, cette recherche fournit les connaissances nécessaires à la création de nouveaux systèmes de gestion du patrimoine par la proposition d'espaces de travail collaboratifs à l'aide des technologies de l'information et de la communication.
312

Aprentissage incrémentale pour la prédiction des mouvements de piétons et de vehicules

Vasquez Govea, Dizan Alejandro 13 February 2007 (has links) (PDF)
Abstract<br />The main subject of this thesis is motion prediction. The problem is approached from the hypothesis that the dynamic and kinematic properties of objects such as pedestrian and vehicles do not suffice to predict their motion in the long term. Instead, the work presented here, in scribes itself in a new family of approaches which assume that, in a given environment, objects do not move at random, but engage in “typical motion patterns”, which may be learned and then used to predict motion on the basis of sensor data. In this context, this thesis focuses in three fundamental questions: modeling, learning and prediction.<br /><br />Modeling. <br /><br />This thesis is based on Hidden Markov Models, a probabilistic framework, which is used as a discrete approximation to represent the continuous state-space in which motion takes place. The main originality of the approach lies in modeling explicitly the intentions which are at the origin of “typical motion patterns”. This is achieved through the using of an extended space, which adds the state that the object intends to reach to the other “classic” state variables, such as position or velocity.<br /><br />Learning. <br /><br />The main problem of existing approaches lies in the separation of model learning and utilization in two distinct stages: in a first phase, the model is learned from data; then, it is used to predict. This principle is difficult to apply to real situations, because it requires at least one example of every possible typical pattern to be available during the learning phase. To address this problem, this thesis proposes a novel extension to Hidden Markov Models which allows simultaneous learning and utilization of the model. This extension incrementally builds a topological map – representing the model's structure – and reestimates the model's parameters. The approach is intended to be general, and it could be used in other application<br />domains such as gesture recognition or automatic landmark extraction.<br /><br />Prediction. <br /><br />In this context, prediction is carried on by using exact Bayesian inference algorithms, which are able to work in real time thanks to the properties of the structure which has been learned. In particular, the time complexity of inference is reduced from O(N 2 ) to O(N) with respect to the number of discrete states in the system. <br /><br />All of the results obtained on this thesis have been implemented and validated with experiments, using both real and simulated data. Real data has been obtained on two different visual tracking systems: one installed over a parking lot, and the other installed at INRIA's entry hall. For synthetic data, a simulator has been developed in order to facilitate the conduction of controlled tests and the study of larger environments than for real data.
313

Modélisation de l'incertitude géologique par simulation stochastique de cubes de proportions de faciès - Application aux réservoirs pétroliers de type carbonaté ou silico-clastique

Zerkoune, Abbas 08 June 2009 (has links) (PDF)
Après sa découverte, les choix relatifs au développement d'un gisement se prennent sur la base de représentations incertaines du champ. En effet, sa caractérisation utilise des modèles numériques spatiaux porteurs de l'incertitude liée à la complexité du milieu souterrain. D'ordinaire, les méthodes de simulations stochastiques, qui génèrent des modèles équiprobables du sous-sol, sont supposées les quantifier. Néanmoins, ces images alternatives du champ renvoient à des tirages au sein d'un modèle probabiliste unique. Elles oublient l'incertitude relative au choix du modèle probabiliste sous-jacent, et tendent à la sous-estimer. Ce travail de recherche vise à améliorer la quantification de cette incertitude. Elle retranscrit la part de doute relative à la compréhension des propriétés du milieu sur les modèles probabilistes, et propose de l'intégrer à ce niveau. Cette thèse précise d'abord la notion d'incertitude en modélisation pétrolière, en particulier sur les modèles géologiques 3D comprenant différents faciès. Leur construction demande au préalable de définir en tout point de l'espace leur probabilité d'existence : c'est le cube de proportions. Généralement, bien que ces probabilités soient peu connues, les méthodes actuelles d'évaluation de l'incertitude sédimentaire les gardent figées. De fait, elles oublient le caractère incertain du scénario géologique et son impact sur le cube de proportions. Deux méthodes stochastiques de simulation ont été développées afin de générer des modèles équiprobables en termes de cubes de proportions. Elles intègrent la variabilité liée aux proportions de faciès, et explorent dans son ensemble un tel domaine d'incertitude. La première reste relativement attachée à la géologie. Elle intègre directement l'incertitude liée aux paramètres qui composent le scénario géologique. Elle décrit sa mise en oeuvre sur les divers paramètres du scénario géologique, qu'ils prennent la forme de signaux aux puits, de cartes ou d'hypothèses plus globales à l'échelle du réservoir. Une démarche de type Monte-Carlo échantillonne les composantes du schéma sédimentaire. Chaque tirage permet de construire un cube de proportions par l'intermédiaire d'un géomodeleur qui intègre de façon plus ou moins explicite les paramètres du scénario géologique. La méthodologie est illustrée et appliquée à un processus inédit de modélisation des dépôts carbonatés en milieu marin. La seconde revêt un caractère plus géostatistique en se concentrant davantage sur le cube de proportions. Elle vise plutôt à réconcilier les différents modèles sédimentaires possibles. Dans le modèle maillé de réservoir, elle estime la loi de distribution des proportions de faciès cellule par cellule - supposées suivrent une loi de Dirichlet, à partir de quelques modèles, construits sur la base de scénarios géologiques distincts. Elle simule alors les proportions de façon séquentielle, maille après maille, en introduisant une corrélation spatiale (variogramme) qui peut être déterministe ou probabiliste. Divers cas pratiques, composés de réservoirs synthétiques ou de champs réels, illustrent et précisent les différentes étapes de la méthode proposée.
314

Algorithmique pour l'analyse et la modélisation en géométrie discrète

Coeurjolly, David 05 December 2007 (has links) (PDF)
Le contexte général de mes activités de recherche est la géométrie discrète. Cette thématique s'intègre, au moins d'un point de vue historique, dans l'analyse de formes dans des images numériques. En effet, de nombreux systèmes d'acquisition de données images fournissent des données organisées sur une grille régulière, appelées données discrètes. Que ce soit pour une visualisation ou pour l'extraction de mesures sur ces objets discrets (paramètres de formes), les axiomes et théorèmes de la géométrie euclidienne ne sont pas directement applicables. Une approche classique consiste à une transposition de ces théorème et mesures dans l'espace discret. Ces différentes re-définitions donnent lieu au paradigme mathématique et informatique qu'est la géométrie discrète. Dans ce contexte, nos contributions portent sur l'analyse des modèles et objets fondamentaux (grille, droite, plan, cercle, ...) permettant la définition d'algorithmes de reconstruction géométrique. Dans un second temps, nous nous sommes intéressés à des algorithmes performants pour l'analyse volumique d'objets discrets (transformation en distance, axe médian,...), ainsi qu'à leurs généralisations.
315

Modélisation du mouvement des quadrupèdes à partir de la vidéo

Favreau, Laurent 30 November 2006 (has links) (PDF)
Les animaux sont de plus en plus présents dans les effets spéciaux au cinéma et dans les films d'animation 3D. Les quadrupèdes en particulier, de par la richesse et de l'esthétique de leurs mouvement, sont souvent l'objet de création de personnages virtuels. L'objectif de cette thèse est d'utiliser la vidéo, et surtout des documentaires animaliers, pour créer des animaux virtuels capables de mouvements réalistes. Dans un premier temps, nous proposons de construire des squelettes d'animation de quadrupèdes à partir d'images. Nous montrons tout d'abord comment reconstruire un squelette réel à partir de plusieurs images. Ensuite, nous construisons un modèle déformable de squelette de quadrupède qui permet de de créer un squelette d'animation rapidement à partir d'une image ou d'un modèle 3D de l'animal à animer. Dans un second temps, nous proposons des méthodes permettant d'animer des quadrupèdes à partir de séquences vidéo. Nous présentons tout d'abord une technique d'animation de mouvements cycliques à partir de vidéo, qui permet notamment de choisir automatiquement les images-clés à partir d'une vidéo. Ensuite, nous proposons une nouvelle méthode d'analyse de vidéos qui permet d'identifier les différentes allures utilisées par l'animal, ainsi que les transitions entre allures.
316

La convergence des modularités structurelles et fonctionnelles des systèmes complexes

Omont, Nicolas 12 January 2009 (has links) (PDF)
L'objet de cette thèse est la convergence structure-fonction dans les systèmes complexes et ses applications aux systèmes vivants et aux systèmes technico-économiques. Après avoir défini la modularité et identifié les difficultés associées à sa définition, cette thèse formalise le concept de convergence structure-fonction dans les systèmes évolutifs et fonctionnels et montre son intérêt pour l'évolutivité et la robustesse de ces systèmes. Ensuite, elle applique ce concept à des problématiques réelles de systèmes évolutifs et fonctionnels en biologie et en économie afin d'illustrer son utilité. Ainsi, dans le cadre de la génomique, cette thèse montre que la longueur des opérons bactériens, qui sont à la fois des modules structurels et fonctionnels, est limitée du fait de contraintes dues à l'interaction des mécanismes de transcription et de réplication. Ensuite, elle fait l'hypothèse que la modularité structurelle des points chauds de recombinaison correspond au moins partiellement à la modularité fonctionnelle des gènes. Ceci permet de développer une nouvelle méthode d'analyse des études d'association génétique basée sur un découpage en régions géniques du génome dans le but de faciliter la compréhension du mécanisme fonctionnel de leur action sur le caractère étudié en analysant directement l'association de gènes ou de groupe de gènes avec ce caractère. Sur le plan structurel, les résultats sont d'une qualité comparable à ceux des méthodes classiques. En revanche, le découpage en régions devra encore être affiné afin d'obtenir une analyse fonctionnelle pleinement utile. Enfin, dans le cadre de la libéralisation du marché européen de l'électricité, la correspondance effective entre structure et fonction de chaque acteur issu de la restructuration fait supposer que le principe de convergence structure-fonction y est bien appliqué. Cependant, des difficultés subsistent avant de parvenir à mettre en place des relations structurelles permettant d'atteindre l'optimum souhaité. Celui-ci inclut des échanges d'énergie à l'origine des contraintes couplantes entre les acteurs. A partir de la théorie de la décomposition par les prix, nous proposons un cadre permettant de définir des tarifs propres à les faciliter, en particulier celles liant producteurs et transporteurs. En conclusion, cette thèse montre (a) la limite à la convergence structure-fonction que constitue la limite de la longueur des opérons bactériens, (b) la faisabilité de l'utilisation d'un découpage basé sur les limites de gènes afin d'analyser des études d'association génétique à grande échelle et (c) l'importance d'améliorer « la grande boucle » des relations entre producteurs et transporteurs d'électricité afin d'assurer l'optimisation conjointe des investissements en capacité de production et de transport. Elle synthétise l'ensemble de ces résultats dans le cadre conceptuel de la convergence structure-fonction qui postule que la modularité structurelle des systèmes évolutifs et fonctionnels tend à se superposer à leur modularité fonctionnelle afin de leur apporter robustesse et évolutivité.
317

Modèles de séries chronologiques Bilinéaires : Estimations, Algorithmes et Applications

Bouzaâchane, Khadija 16 December 2006 (has links) (PDF)
Plusieurs travaux sur l'estimation des paramètres de certains modèles bilinéaires ont été réalisé avec quelques applications et simulations.<br />Notre objectif dans cette thèse était alors, d'édifier un nouvel algorithme d'estimation des paramètres de ces modèles, et leur utilisation dans la modélisation des données issues de phénomènes réels.<br />Notre avons développé notre nouvelle technique d'estimation en se basant sur la méthode du maximum de vraisemblance et l'algorithme du filtre de Kalman, ce dernier requiert une représentation en espace d'état de ces modèles. nous avons pour cela utilisé la représentation affine en état polynomiale en entrée introduite par Guégan et la représentation de Hamilton.<br />Pour exhiber la bonne performance de notre approche nous avons généré plusieurs simulations.<br />Notre algorithme d'estimation a été implémenté dans un outil logiciel, que nous avons conçu au profit de certains modèles bilinéaires particuliers.
318

ANALYSIS AND OPTIMIZATION OF DENSE GAS FLOWS: APPLICATION TO ORGANIC RANKINE CYCLES TURBINES

Congedo, Pietro Marco 18 July 2007 (has links) (PDF)
This thesis presents an accurate study about the fluid-dynamics of dense gases and their potential application as working fluids in Organic Rankine Cycles (ORCs). The ORCs are similar to a steam Rankine Cycle where an organic fluid is used instead of steam, which ensures better efficiency for low-temperature sources. Specific interest is developed into a particular class of dense gases, the Bethe-Zel'dovich-Thompson (BZT) fluids, which exhibit negative values of the Fundamental Derivative of Gasdynamics G in the vapor phase , for a range of temperatures and pressures of the order of magnitude of those of the liquid/vapor critical point, just above the upper coexistence curve. Transonic and supersonic flows in a region of negative G are characterized by nonclassical gasdynamic behaviors, such as the disintegration of compression shocks. Owing to this effect, the use of BZT gases as working fluids in ORCs is particularly attractive, since it may reduce losses due to wave drag and shock/boundary layer interactions. This advantage can be further improved by a proper design of the turbine blade. The present work is devoted to improve the understanding of the peculiar fluid-dynamic behavior of dense gases with respect perfect ones and to the research of suitable aerodynamic shapes. To this purpose, a dense-gas Navier-Stokes (NS) numerical solver is coupled with a multi-objective genetic algorithm. The Navier-Stokes solver employs equations of state of high accuracy within the thermodynamic region of interest and suitable thermophysical models for the fluid viscosity and thermal conductivity. Different computations are performed for transonic flows over isolated airfoils and through turbine cascades to evaluate the influence of the upstream kinematic and thermodynamic conditions on the flow patterns and the system efficiency, and possible advantages deriving from the use of a non-conventional working fluid are pointed out. Then, high performance airfoils and turbine blade shapes for transonic flows of BZT fluids are constructed using the CFD solver coupled with a multi-objective genetic algorithm. Shape optimization allows to strongly increase flow critical Mach Number, delaying the appearance of shock waves, while ensuring high lift (for an airfoil) and efficiency. A careful analysis of the convergence behavior of Genetic Algorithms has also been undertaken by means of statistical tools. Genetic Algorithm exhibit a marked sensitivity to the shape of the response surface and to its numerical representation. Some strategies are proposed to systematically evaluate GAs convergence capabilities for a given problem and to enhance their convergence properties for dense gas optimization problems.
319

Etude structurale des cassures d'hélices et son application à la modélisation des récepteurs couplés aux protéines G (RCPG)

Devillé, Julie 19 December 2007 (has links) (PDF)
Nos récepteurs d'intérêt, les récepteurs à l'angiotensine AT1 et AT2, appartiennent à la classe A de la grande famille des récepteurs couplés aux protéines G (RCPG). Jusqu'à très récemment, la rhodopsine bovine était le seul RCPG dont la structure cristallographique était résolue. La structure de la rhodopsine est employée couramment comme modèle en modélisation par homologie des RCPG de classe A. La structure de la rhodopsine est constituée de sept hélices transmembranaires. La plupart de ces hélices ne sont pas droites, mais cassées ou incurvées. Pour comprendre quels sont les motifs structuraux possibles pour les cassures d'hélices, nous avons réalisé une étude exhaustive des motifs d'hélices cassées au niveau d'un seul résidu de jonction (motif HXH) grâce à une base de données de structures d'hélices cassées développée localement. Les résultats montrent que le résidu de jonction n'admet qu'un nombre limité de conformations conduisant à la classification de ces cassures en six motifs bien distincts. Un de ces motifs correspond à une cassure au niveau d'un renflement. Ce motif se retrouve dans l'hélice transmembranaire 2 (TMH2) de la rhodopsine où une cassure se fait au niveau d'un motif GG correspondant à un renflement p. Ce motif GG, situé aux positions 2.56-2.57, n'est pas conservé parmi les RCPG mais une proline est fréquemment observée aux positions 2.58, 2.59 ou 2.60. Nos récepteurs d'intérêt AT1 et AT2 possèdent une proline à la position 2.58. L'étude de l'évolution de l'hélice transmembranaire 2 au sein de la famille des RCPG suggère fortement que la position en 2.58 correspond à une délétion d'un résidu au niveau de la cassure. Ceci est confirmé par des analyses structurales de la Protein Data bank. Ces résultats indiquent que la structure de la rhodopsine peut être utilisée directement pour modéliser l'hélice 2 lorsque la proline est en position 2.59 ou 2.60 (renflement p)/ Lorsque la proline est en position 2.58, la rhodopsine peut aussi être utilisée comme modèle structural à condition de prendre en compte la délétion d'un résidu au niveau du renflement, pour obtenir une cassure proline en coude classique.
320

Estimation de la fonction d'intensité d'un processus ponctuel par complexité minimale

Nembé, Jocelyn 29 October 1996 (has links) (PDF)
Soit un processus ponctuel observé sur un intervalle de temps fini, et admettant une intensité stochastique conforme au modèle de Aalen. La fonction d'intensité du processus est estimée à partir d'un échantillon indépendant et identiquement distribué de paires constituées par la réalisation du processus ponctuel et du processus prévisible associé, par la minimisation d'un critère qui représente la longueur d'un code variable pour les données observées. L'estimateur de complexité minimale est la fonction minimisant ce critère dans une famille de fonctions candidates. Un choix judicieux des fonctions de complexité permet de définir ainsi des codes universels pour des réalisations de processus ponctuels. Les estimateurs de la fonction d'intensité obtenus par minimisation de ce critère sont presque-sûrement consistants au sens de l'entropie, et au sens de la distance de Hellinger pour des fonctions de complexité satisfaisant l'inégalité de Kraft. L'étude des vitesses de convergence pour la distance de Hellinger, montre qu'elles sont majorées par celle de la redondance du code. Ces vitesses, sont précisées dans le cas des familles de fonctions trigonométriques, polynomiales et splines. Dans le cas particulier des processus de Poisson et des modèles de durées de vie avec censure, les mêmes vitesses de convergence sont obtenues pour des distances plus fortes. D'autres propriétés de l'estimateur sont présentées, notamment la découverte exacte de la fonction inconnue dans certains cas, et la normalité asymptotique. Des suites de tests exponentiels consistants sont également étudiées. Le comportement numérique de l'estimateur est analysé à travers des simulations dans le cas des modèles de durées de vie avec censure

Page generated in 0.0381 seconds