• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 52
  • 46
  • Tagged with
  • 224
  • 224
  • 197
  • 177
  • 177
  • 175
  • 173
  • 72
  • 59
  • 41
  • 40
  • 40
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

De la simulation multi-agents à la simulation multi-niveaux. Pour une réification des interactions.

Picault, Sébastien 06 December 2013 (has links) (PDF)
Dans ce mémoire de synthèse d'habilitation à diriger des recherches, je présente les travaux en simulation multi-agents que j'ai menés au sein de l'équipe SMAC (LIFL, Université Lille 1) depuis le début de ma carrière d'enseignant-chercheur en 2002. Ceux-ci portent sur la conception et la mise en application de méthodes et d'outils de simulation destinés à faciliter la modélisation de systèmes complexes à large échelle. Dans ce but, j'ai développé avec mes collègues une approche " orientée interactions " caractérisée par une unification des concepts utilisés dans le domaine des SMA. Elle a donné lieu à une importante élaboration méthodologique et algorithmique (la méthode IODA) dans laquelle toute entité du modèle est représentée par un agent, et tout comportement par une règle appelée interaction. Cette méthode s'appuie sur une séparation entre déclaratif et procédural qui facilite l'acquisition de l'expertise auprès des thématiciens. Par ailleurs de nombreux outils logiciels sont nés de ces recherches (dont la plateforme JEDI et une extension IODA pour la plateforme NetLogo), ainsi que diverses applications dans des domaines variés (biologie cellulaire, serious games, marketing, cartographie). Pour conclure, je présente mon projet de recherche pour les prochaines années qui se propose d'articuler des problématiques issues de travaux récents, d'une part sur la simulation multi-niveaux (qui vise à définir un cadre opérationnel permettant le changement d'échelle d'observation ou de point de vue sur les sous-systèmes d'un système complexe), et d'autre part sur la recherche automatique d'informations dans des données réelles pour augmenter le réalisme comportemental des populations d'agents. Par ailleurs une collaboration avec l'IGN sur l'utilisation de ces techniques pour la généralisation cartographique permet également d'envisager la transposition de ces méthodes de simulation à la résolution de problèmes.
122

" Le simple est-il robuste ? " : une étude de la robustesse des systèmes complexes par les automates cellulaires

Bouré, Olivier 13 September 2013 (has links) (PDF)
Dans cette thèse, nous étudions la robustesse dans le contexte de la modélisation de systèmes complexes par les automates cellulaires. En effet, si l'on cherche à reproduire un comportement émergent à partir d'un modèle d'automate cellulaire, il nous semble nécessaire de se demander si les comportements observés sont bien le résultat d'interactions entre entités constituantes, ou bien s'ils dépendent d'une définition particulière du modèle. Nous allons ainsi être amenés à considérer la robustesse du modèle, à savoir la résistance de son comportement à de petites variations sur les attributs de sa définition. Dans un premier temps, nous montrons la pertinence de cette approche en considérant plusieurs définitions possibles d'une perturbation de la mise à jour globale et en les appliquant à une classe simple et représentative de modèles d'automates cellulaires, les Automates Cellulaires Elémentaires. Nous observons que, malgré le fait que nos perturbations soient proches et qu'une majorité des modèles considérés ne change pas de comportement, quelques cas particuliers montrent des changements qualitatifs du comportement que nous étudions plus en détail. Dans un second temps, nous appliquons cette approche en nous penchant sur un modèle particulier d'automate cellulaire, qui simule le phénomène de formation d'essaim à partir d'un modèle évolué d'automate cellulaire, le gaz sur réseau. Nous explorons la robustesse du comportement du modèle en considérant la perturbation de deux attributs du modèle, la forme de la grille cellulaire et la mise à jour globale, et en tirons les conclusions sur la relation entre l'observation du comportement et la définition précise du modèle.
123

Simulation d'événements rares par Monte Carlo dans les réseaux hautement fiables

Saggadi, Samira 08 July 2013 (has links) (PDF)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple, s'intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu'un groupe sélectionné de noeuds (qui peut être juste une paire) puissent communiquer, ou s'intéresser aux systèmes d'alimentation électriques où l'on veut estimer le risque que l'électricité n'est pas fournie à certains noeuds, ou encore, étudier la fiabilité des systèmes de transport, où les liens représentent les routes et sont soumis à des dommages. Dans tous ces cas, un ensemble de noeuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Les réseaux de communication moderne se caractérisent par leur grande taille, donc l'estimation via la simulation de Monte Carlo devient souvent un choix favorable. Un algorithme de Monte Carlo sous sa forme standard, échantillonne N réalisations du graphe (représentant le réseau) indépendantes, et la défiabilité est estimée à partir de la proportion des N réalisations pour lesquelles les noeuds sélectionnés ne sont pas connectés. Dans ces réseaux, les probabilités de défaillance des liens (arcs) sont généralement petites et donc les pannes d'un réseau deviennent des événements rares. Cela pose un défi majeur pour estimer la fiabilité d'un réseau. Dans cette thèse, nous présentons différentes techniques basées sur l'échantillonnage préférentiel (Importance Sampling en anglais IS), pour l'estimation de la fiabilité d'un réseau. Grace à cette technique les probabilités originales d'échantillonnage des arcs sont remplacées par de nouvelles probabilités, puis multiplier l'ancien estimateur par le quotient de vraisemblance (likelihood ratio) pour rester sans biais. On s'intéresse tout particulièrement à l'étude et au calcul de la fiabilité des réseaux hautement fiables et représentés par des graphes statiques. Dans ce cas la défiabilité est très petite, parfois de l'ordre de 10−10, ce qui rend l'approche standard de Monte Carlo inutile, car pour pouvoir estimer cette probabilité il nous faut un échantillon de taille supérieure à dix milliards. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons étudié, analysé et développé les points suivants : - En premier lieu nous avons développé une méthode basée sur l'échantillonnage préférentiel. Le processus d'échantillonnage de tous les arcs du graphe sous la nouvelle probabilité est représenté par une chaîne de Markov, telle qu'à chaque étape on détermine l'état d'un arc avec une nouvelle probabilité déterminée en fonction de l'état de tous les arcs précédemment échantillonnés. Les fonctions valeurs de la nouvelle probabilité sont approchées par les coupes minimales possédant la plus grande probabilité de défiabilité, elle est le produit des défiabilités des arcs de la coupe. Des preuves de bonnes propriétés de l'estimateur basé sur l'échantillonnage préférentiel sont faites. - Un deuxième point a été abordé et développé, consiste à appliquer des techniques de réduction série-parallèle à chaque étape de l'échantillonnage IS précédemment décrit, afin de réduire substantiellement et la variance et le temps de simulation. - Le dernier point consiste à combiner pour approximation de l'estimateur à variance nulle, l'approximation de la défiabilité par une coupe minimale qui sous-estime la défiabilité avec une autre approximation basée sur les chemins minimaux qui la sur-estime. Des algorithmes d'optimisation sont utilisés pour rechercher le facteur optimal d'ajustement des deux approximations pour minimiser la variance.
124

Raffinement local adaptatif et méthodes multiniveaux pour la simulation d'écoulements multipĥasiques.

Minjeaud, Sebastian 27 September 2010 (has links) (PDF)
Cette thèse est consacrée à l'étude de certains aspects numériques et mathématiques liés à la simulation d'écoulements incompressibles triphasiques à l'aide d'un modèle à interfaces diffuses de type Cahn-Hilliard/Navier-Stokes. La discrétisation spatiale est effectuée par éléments finis. La présence d'échelles très différentes dans le système suggère l'utilisation d'une méthode de raffinement local adaptatif. La procédure mise en place permet de tenir compte implicitement des non conformités des maillages générés, pour produire in fine des espaces d'approximation conformes. Nous montrons, en outre, qu'il est possible d'exploiter cette méthode pour construire des préconditionneurs multigrilles. Concernant la discrétisation en temps, notre étude a commencé par celle du système de Cahn-Hilliard. Pour remédier aux problèmes de convergence de la méthode de Newton utilisée pour résoudre ce système (non linéaire), nous proposons un schéma semi-implicite permettant de garantir la décroissance de l'énergie. Nous montrons l'existence et la convergence des solutions discrètes. Nous poursuivons ensuite cette étude en donnant une discrétisation en temps inconditionnellement stable du modèle complet Cahn-Hilliard/Navier-Stokes ne couplant pas fortement les deux systèmes. Nous montrons l'existence des solutions discrètes et, dans le cas où les trois fluides ont la même densité, nous montrons leur convergence. Nous étudions, pour terminer cette partie, diverses problématiques liées à l'utilisation de la méthode de projection incrémentale. Enfin, la dernière partie présente plusieurs exemples de simulations numériques, diphasiques et triphasiques, en deux et trois dimensions.
125

Plasticité corticale, champs neuronaux dynamiques et auto-organisation

Detorakis, Georgios 23 October 2013 (has links) (PDF)
L'objectif de ce travail est de modéliser la formation, la maintenance et la réorganisation des cartes corticales somesthésiques en utilisant la théorie des champs neuronaux dynamiques. Un champ de neurones dynamique est une équation intégro-différentiel qui peut être utilisée pour décrire l'activité d'une surface corticale. Un tel champ a été utilisé pour modéliser une partie des aires 3b de la région du cortex somatosensoriel primaire et un modèle de peau a été conçu afin de fournir les entrées au modèle cortical. D'un point de vue computationel, ce modèle s'inscrit dans une démarche de calculs distribués, numériques et adaptatifs. Ce modèle s'avère en particulier capable d'expliquer la formation initiale des cartes mais aussi de rendre compte de leurs réorganisations en présence de lésions corticales ou de privation sensorielle, l'équilibre entre excitation et inhibition jouant un rôle crucial. De plus, le modèle est en adéquation avec les données neurophysiologiques de la région 3b et se trouve être capable de rendre compte de nombreux résultats expérimentaux. Enfin, il semble que l'attention joue un rôle clé dans l'organisation des champs récepteurs du cortex somato-sensoriel. Nous proposons donc, au travers de ce travail, une définition de l'attention somato-sensorielle ainsi qu'une explication de son influence sur l'organisation des cartes au travers d'un certain nombre de résultats expérimentaux. En modifiant les gains des connexions latérales, il est possible de contrôler la forme de la solution du champ, conduisant à des modifications importantes de l'étendue des champs récepteurs. Celà conduit au final au développement de zones finement cartographiées conduisant à de meilleures performances haptiques.
126

Généralisation de la méthode Nitsche XFEM pour la discrétisation de problèmes d'interface elliptiques

Barrau, Nelly 10 October 2013 (has links) (PDF)
Cette thèse porte sur la généralisation de la méthode NXFEM proposée par A. et P. Hansbo pour le problème d'interface elliptique. La modélisation et simulation numérique d'écoulements dans des domaines fracturés sont au coeur de nombreuses applications, telles que le milieu pétrolier (modélisation de réservoirs, présence de failles, propagation d'un signal, repérage de couches), l'aérospatiale (problème de chocs, de rupture), en génie civil (fissuration du béton), mais également dans la biologie cellulaire (déformation des globules rouges). En outre, de nombreux projets de recherche nécessitent le développement des méthodes robustes pour la prise en compte de singularités, ce qui fait partie des motivations et des objectifs de l'équipe Concha, ainsi que de cette thèse. Une modification de cette méthode a tout d'abord été proposée afin d'obtenir la robustesse à la fois par rapport à la géométrie du maillage coupé par l'interface et par rapport aux paramètres de diffusion. Nous nous sommes ensuite intéressés à sa généralisation à tout type de maillages 2D-3D (triangles, quadrilatères, tétraèdres, hexaèdres), et pour tout type d'éléments finis (conformes, non conformes, Galerkin discontinus) pour des interfaces planes et courbes. Les applications ont été orientées vers des problèmes d'écoulements en milieux poreux fracturés : adaptation de la méthode NXFEM à la résolution d'un modèle asymptotique de failles, à des problèmes instationnaires, de transports, ou encore à des domaines multi-fracturés.
127

Adaptation de maillages pour des schémas numériques d'ordre très élevé

Mbinky, Estelle 20 December 2013 (has links) (PDF)
L'adaptation de maillages est un processus itératif qui consiste à changer localement la taille et l'orientation du maillage en fonction du comportement de la solution physique étudiée. Les méthodes d'adaptation de maillages ont prouvé qu'elles pouvaient être extrêmement efficaces en réduisant significativement la taille des maillages pour une précision donnée et en atteignant rapidement une convergence asymptotique d'ordre 2 pour des problèmes contenant des singularités lorsqu'elles sont couplées à des méthodes numériques d'ordre élevé. Dans les techniques d'adaptation de maillages basées sur les métriques, deux approches ont été proposées: les méthodes multi-échelles basées sur un contrôle de l'erreur d'interpolation en norme Lp et les méthodes ciblées à une fonctionnelle qui contrôle l'erreur d'approximation sur une fonctionnelle d'intérêt via l'utilisation de l'état adjoint. Cependant, avec l'émergence de méthodes numériques d'ordre très élevé telles que la méthode de Galerkin discontinue, il devient nécessaire de prendre en compte l'ordre du schéma numérique dans le processus d'adaptation de maillages. Il est à noter que l'adaptation de maillages devient encore plus cruciale pour de tels schémas car ils ne convergent qu'à l'ordre 1 dans les singularités de l'écoulement. Par conséquent, le raffinement du maillage au niveau des singularités de la solution doit être d'autant plus important que l'ordre de la méthode est élevé. L'objectif de cette thèse sera d'étendre les résultats numériques et théoriques obtenus dans le cas de l'adaptation pour des solutions linéaires par morceaux à l'adaptation pour des solutions d'ordre élevé polynomiales par morceaux. Ces solutions sont représentées sur le maillage par des éléments finis de Lagrange d'ordre k ≥ 2. Cette thèse portera sur la modélisation de l'erreur d'interpolation locale, polynôme homogène de degré k ≥ 3 dans le formalisme du maillage continu. Or, les méthodes d'adaptation de maillages basées sur les métriques nécessitent que le modèle d'erreur soit une forme quadratique, laquelle fait apparaître intrinsèquement un espace métrique. Pour pouvoir exhiber un tel espace, il est nécessaire de décomposer le polynôme homogène et de l'approcher par une forme quadratique à la puissance k/2. Cette modélisation permet ainsi de révéler un champ de métriques indispensable pour communiquer avec le générateur de maillages. En deux et trois dimensions, des méthodes de décomposition de tenseurs telles que la décomposition de Sylvester nous permettront de décomposer la fonction exacte d'erreur puis d'en déduire le modèle d'erreur quadratique. Ce modèle d'erreur local est ensuite utilisé pour contrôler globalement l'erreur en norme Lp et le maillage optimal est obtenu en minimisant cette erreur. Dans cette thèse, on s'attachera à démontrer la convergence à l'ordre k de la méthode d'adaptation de maillages pour des fonctions analytiques et pour des simulations numériques utilisant des solveurs d'ordre k ≥ 3.
128

Application des techniques d'aide à la décision à la planification sanitaire régionale

Pelletier, Christine 05 October 1999 (has links) (PDF)
La planification sanitaire régionale consiste à répartir dans l'espace régional les ressources sanitaires rares (équipement lourd, personnel, ...) entre différentes structures sanitaires existantes ou non, afin d'"optimiser" la réponse aux besoins en soins de la population régionale. Cette répartition s'effectue dans un contexte décisionnel multidimensionnel, dont les dimensions médicale, économique et celles relatives à l'aménagement du territoire. Depuis une quarantaine d'années, la recherche de méthodes rationnelles applicables à la planification sanitaire a permis l'investigation de nombreuses voies de modélisation, et la proposition de méthodes variées. Malgré leur multitude, aucune d'entre elles n'a acquis de légitimité auprès des planificateurs. Trois motifs expliquent ce phénomène: le caractère restrictif de la définition donnée au système de santé, la complexité des techniques mathématiques utilisée, souvent obscures pour les non initiés, et le rôle passif réservé au planificateur. Le travail présenté dans ce mémoire propose la formalisation d'un outil interactif d'aide à la planification sanitaire. Cette formalisation s'appuie sur une approche globale du système de santé, à partir de laquelle nous avons établit une définition de la planification sanitaire. A l'issue de cette formalisation, nous proposons un outil HERO qui lie un Système d'Information Géographique (SIG) avec un outil de résolution multiobjectif. Via le SIG, l'outil informe le planificateur sur l'état de santé de la population ainsi que sur les mécanismes de production et de consommation de soins. L'outil de résolution multiobjectif assiste ce dernier dans l'élaboration d'un plan en lui fournissant un moyen d'évaluation de la pertinence de ses choix dans la répartition spatiale des ressources. Le fonctionnement de HERO est illustré sur un exemple utilisant des données du Bas-Rhin (France).
129

Approche de modélisation approximative pour des systèmes à événements discrets : Application à l'étude de propagation de feux de forêt

Bisgambiglia, Paul-Antoine 05 December 2008 (has links) (PDF)
Ce rapport présente les différentes étapes suivies afin de définir une nouvelle approche de modélisation et de simulation à évènements discrets pour les systèmes à paramètres imprécis. Cette étude a débuté avec des travaux sur la formalisation d'un système de production de fromage Corse. Suite à ces recherches, et en particulier, suite à la phase de modélisation du processus, nous avons pu constater l'influence de paramètres imparfaitement définis. Ces paramètres entrent en compte au cours des différentes phases de conception, et sont difficiles à représenter et surtout à manipuler. Dans le but de les prendre en compte de manière générique, nous nous sommes naturellement tournés vers l'utilisation de la Logique Floue. En effet, elle permet de représenter des informations imprécises (théorie des sous ensembles flous), incertaines (théorie des possibilités), et inexacte (raisonnement approximatif). Son avantage principal est de fournir un grand nombre d'outils mathématiques afin de manipuler de telles informations sous forme numérique ou linguistique, c'est-à-dire de manière relativement proche du mode de représentation, et surtout d'expression utilisé par l'homme. A partir des théories du flou, nous pouvons donc user de concepts mathématiques complexes tout en conservant un rapport privilégié (lien) entre représentation numérique et mode de description humain. Nous avons choisi d'intégrer ces différents outils dans un multi formalisme de modélisation et de simulation afin de pouvoir spécifier de manière générique n'importe quel type de système à paramètres imprécis. Le formalisme employé est nommé DEVS (Discrete EVents system Specification). Ses principaux avantages sont : sa capacité à être étendu à de nouveaux domaines d'étude, dans notre cas les systèmes flous ; la séparation des phases de modélisation et de simulation, de ce fait, lors de la conception d'un modèle DEVS les algorithmes de simulation sont automatiquement générés en fonction du modèle ; enfin, il permet de représenter un système sous sa forme fonctionnelle et structurelle. Notre but est d'associer le formalisme DEVS et une partie des théories du flou afin de définir une nouvelle approche de modélisation approximative.
130

Calcul effectif de la topologie de courbes et surfaces algébriques réelles

Diatta, Daouda 28 September 2009 (has links) (PDF)
Ce travail relève du registre de l'algorithmique de courbes et surfaces algébriques réelles. Dans le domaine de la représentation de formes, nous avons développé trois algorithmes. Le premier est un algorithme symbolique-numérique certifié, fortement basé sur les propriétés des polynômes sous-résultants, et permettant le calcul de la topologie d'une courbe algébrique plane avec la meilleur complexité connue. Le deuxième algorithme traite le problème du calcul de la topologie d'une courbe algébrique spatiale définie comme intersection de deux surfaces implicites. Pour construire cet algorithme, nous introduisons la notion de courbe spatiale en position pseudo-générique par rapport à un plan. Cette approche conduit à un algorithme symbolique- numérique certifié disposant de la meilleur complexité connue. Le troisième est un algorithme de maillages de surfaces implicites. C'est le premier algorithme certifié et implémenté qui traite le problème du maillage isotopique de surfaces implicites singulières. Enfin dans un travail sur les arrangements de quadriques nous fournissons un algorithme permettant de calculer un tel arrangement.

Page generated in 0.1681 seconds