• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 394
  • 212
  • 66
  • 13
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 727
  • 254
  • 185
  • 172
  • 146
  • 139
  • 117
  • 117
  • 112
  • 109
  • 107
  • 93
  • 85
  • 84
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Étude de l'enseignement et de l'apprentissage des formes indéterminées

Odierna, Mélanie January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
42

Modélisation mathématique de la transmission locale du virus de la fièvre aphteuse

Kaboré, Henri January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
43

Analyse de la stabilité des modèles intra-hôtes avec retard : application à des modèles intra-hôtes de paludisme et de V.I.H-1 / Stability analysis of within-host models with delays : application to within-host models of H.I.V-1

Mbang, Joseph 20 March 2009 (has links)
Dans cette thèse, nous analysons certains modèles épidémiologiques comportant des retards distribués. Le phénomène du retard est omniprésent en biologie. Les équations différentielles avec retard constant discret encore appelées "lag", ont été beaucoup étudiées. Cependant les retards distribués sont plus adaptés aux phénomènes biologiques. Nous entendons par retards distribués, des retards qui sont décrits par une fonction continue de densité de probabilité. Les retards jouent un rôle important en biologie plus particulièrement en épidémiologie. Par exemple dans le cas d'une maladie infectieuse, le temps d'incubation c'est-à-dire le temps entre le moment où l'individu est infecté et celui où il transmet cette maladie joue un rôle important dans l'analyse de la transmission. Un autre exemple est celui des modèles intra-hôtes d'une infection. Un parasite a besoin d'envahir une cellule cible pour se reproduire. C'est le cas de Plasmodium falciparum, le parasite du paludisme qui envahit les globules rouges, ou le virus VIH dont les cellules cibles sont les lymphocytes CD+4. Quand le parasite rentre dans la cellule cible cela déclenche toute une cascade d'évènements qui aboutiront à la production de nouveaux parasites par bourgeonnement ou lyse de la cellule. (HIV, HBV, Paludisme). La production de nouveaux parasites n'est pas instantanée. Plus généralement le mouvement de quantité de matières d'un endroit à un autre prend du temps. Si l'on veut modéliser une injection de substance dans le flot sanguin, le temps d'apparition dans les capillaires introduit un retard. Les modèles étudiés dans cette thèse sont des modèles intra-hôtes avec retard. Les modèles intra-hôtes ont pour objectif de décrire la dynamique des différents niveaux d'étapes de parasites ainsi que leur interaction avec les cellules cibles du parasite. Pour les modèles biologiques les systèmes compartimentaux sont naturellement utilisés dans la modélisation. Le retard est modélisé par la fonction d'Erlang comme fonction de densité de probabilité. Les modèles intra-hôtes de parasite avec retard peuvent aussi être vus comme les systèmes provenant des modèles SE1...En I, où les Ei sont les classes latentes des infectés. Les classes latentes sont représentées par des chaînes linéaires parallèles de différentes longueurs qui sont insérées entre le compartiment des susceptibles et celui des infectieux. Dans cette thèse, nous utilisons quelques outils de la théorie du contrôle pour "généraliser" le "linear chain trick". Nous calculons le nombre de reproduction de base R0 pour ces systèmes considérés et nous établissons les résultats suivants : – si R0 < 1 les parasites disparaissent et l'équilibre sans parasite (PFE) est globalement asymptotiquement stable dans l'orthant positif ; – si R0 > 1 et avec une hypothèse supplémentaire, il existe un équilibre endémique (EE) qui est globalement asymptotiquement stable dans l’orthant positif hormis l’axe des « susceptibles ». Ces résultats donnent une possibilité de relecture de certains modèles de parasites incluant le retard intracellulaire et d'étude de leur stabilité globale. Comme application de ce résultat, nous reprenons et améliorons les résultats de Nelson et Perelson dans sur les modèles intra-hôtes de l'infection au VIH / In this thesis, we analyze certain epidemiologic models with delays. The phenomenon of delay is omnipresent in biology. The differential equations with constant discrete delay called by Jacquez "lag"have been much studied. However the distributed delays are adapted to many biology phenomena. By distributed delays, we mean delays described by a continuous probability density function. Indeed for example the incubation time for a germs is not constant. The delays are very important in biology particulary in epidemiologic. For example in the case of infectious disease the time of incubation is very important for the analysis of the transmission. The entrance of a parasite into a targetcell initiates a cascade of events that ultimately lead to the production of new parasites by the infected cell. The production of new parasites is not instantaneous. The models studied in this thesis are within-host models with delays. The objectives of within-host parasite models is to describe the dynamic of various stages of the parasites and their interaction with the host cells like red blood cells and the immunity effectors. the delay used in this thesis is the probability density functions of Erlang. The within-host parasite models with distributed delays can also be see as the systems arising from systems with parallel classes of different length of latently infected target cells SE1... EnI where, Ei are latently infected classes. We used some tools of control theory to "generalize" the "linear chain trick". We computed the basic reproduction ratio R0 for systems under consideration. We established the following results : – if R< 1, the parasite is cleared and the parasite free equilibrium is glabal asymptotic stability on the positive orthan ; – if R > 1 and with a sufficient condition is satis fied, we conclude to the global asymptotic stability of the endemic equilibrium. In application, we improve the results of Nelson and Perelson
44

Une étude didactique sur l'introduction dans l'enseignement mathématique vietnamien de notions statistiques dans leurs liens avec les probabilités

Vu Nhu, Thu Huong 01 September 2009 (has links) (PDF)
L'étude didactique porte sur l'enseignement secondaire vietnamien des statistiques dans ses liens potentiels avec les concepts de probabilité. Elle part de deux constats, le premier de nature épistémologique et le second de nature didactique :<br />- il existe un corpus des savoirs en statistique inférentielle qui caractérise mathématiquement les liens entre statistiques et probabilités <br />- les deux systèmes d'enseignement, vietnamien et français diffèrent profondément puisque statistiques et probabilités sont enseignées séparément au Vietnam et ces savoirs sont absents des programmes alors qu'en France plusieurs réformes récentes ont inscrit dans les programmes certains de ces savoirs au travers de notions comme la fluctuation d'échantillonnage ou l'adéquation d'une distribution statistique à une loi probabiliste. <br />L'articulation d'une analyse épistémologique et d'une analyse institutionnelle développe la problématique de l'étude dans deux questions successives : quel effet a la coupure constatée entre statistiques et probabilités sur le rapport institutionnel à des « objets-candidats pour les liens statistiques-probabilités » au Vietnam aussi bien du côté enseignant que du côté élève ? Est-il possible de faire vivre dans les conditions actuelles de l'enseignement vietnamien quelques uns de ces objets-candidats ? Chacune des questions est travaillée via un dispositif expérimental : la première à travers un questionnaire aux élèves et aux enseignants vietnamiens et la seconde dans une ingénierie didactique réalisée dans une classe de lycée vietnamien.
45

La théorie de la viabilité au service de la modélisation mathématique du développement durable. Application au cas de la forêt humide de Madagascar

Bernard, Claire 19 September 2011 (has links) (PDF)
Le développement durable, défini à l'origine comme un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs, souffre aujourd'hui des limites de cette définition. On dénombre en effet des centaines de définitions rendant le concept flou au point que mesures politiques et économiques les plus diverses se revendiquent durables.L'objectif de cette thèse est de modéliser le développement durable à l'aide des outils mathématiques de la théorie de la viabilité et de rendre sa définition opérationnelle. La théorie de la viabilité permet en effet d'intégrer les principales caractéristiques d'un développement durable : l'approche multi-objectifs, la prise en compte d'un horizon temporel infini, la possibilité de déterminer plusieurs politiques d'actions viables et le respect de l'équité intergénérationnelle. Le principe de la viabilité est l'étude de systèmes dynamiques contrôlés soumis à un ensemble de contraintes. Le concept central est celui de noyau de viabilité, ensemble regroupant tous les états initiaux à partir desquels il existe une évolution restant dans l'ensemble de contraintes. Après avoir mis en évidence les limites des méthodes utilisées dans la modélisation du développement durable telles que l'analyse multicritères, notre démarche scientifique s'appuie sur le développement de deux modèles mathématiques appliqués à la gestion durable du corridor forestier de Fianarantsoa (Madagascar). L'enjeu est alors de déterminer des politiques d'actions permettant de satisfaire un double objectif : la conservation de la forêt et la satisfaction des besoins de la population locale. Nous démontrons alors l'utilité de la théorie de la viabilité pour atteindre ces objectifs en définissant les contraintes adaptées et en calculant des noyaux de viabilité.
46

Composants logiciels et algorithmes de minimisation exacte d'énergies dédiés au traitement des images

Darbon, Jérôme January 2005 (has links) (PDF)
Cette thèse traite principalement de l'optimisation exacte et rapide d'énergies utilisées pour résoudre des problèmes de traitement des images ou de vision par ordinateur. En fonction du type d'énergies considérées, différentes approches sont retenues. Le calcul de coupures minimales, vu comme technique d'optimisation, est la souche commune aux méthodes d'optimisation proposées dans ce manuscrit. Nous présentons tout d'abord un algorithme de minimisation exacte de la variation totale avec une attache aux données modélisée par une fonction convexe. L'idée de notre approche consiste à reformuler cette énergie avec des champs de Markov binaires associés à chaque ensemble de niveaux d'une image. Nous généralisons ensuite cette approche aux cas des énergies dites "nivellées". Une seconde généralisation, différente de la précédente, considère le cas où les termes de régularisation sont convexes. Nous présentons ensuite un algorithme original et rapide pour le cas des modèles dont les attaches aux données et les termes de régularisation sont des fonctions convexes. Le cas particulier de la variation totale avec une attache aux données de type $L^1$ est étudié en détail. Nous montrons en particulier que sa minimisation conduit à un filtre invariant par changement de contraste. Cette invariance est une propriété fondamentale des filtres morphologiques. Ce modèle est alors utilisé pour définir un filtre morphologique vectoriel auto-dual.
47

Enrichissement de réseaux sémantiques par la proximité de concepts

Shetty, Reena 12 November 2008 (has links) (PDF)
Ces dernières années ont vu le déferlement d'une vague d'information sous forme électronique liée à l'usage croissant du World Wide Web (WWW). Pour beaucoup, le World Wide Web est devenu un moyen essentiel pour mettre à disposition ou rechercher de l'information, conduisant à une forte accumulation de données. La recherche sur Internet dans sa forme présente devient vite exaspérante car les données disponibles peuvent être superficielles et de formes très diverses. Les utilisateurs du Web en ont assez d'obtenir des ensembles gigantesques de réponses à leurs requêtes simples, ce qui les oblige à investir de plus en plus de temps pour analyser les résultats. De nombreux résultats s'avèrent non pertinents et les liens les plus intéressants restent souvent en dehors de l'ensemble des résultats. Le chapitre1 introduit la motivation de notre travail de recherche. L'une des principales explications concernant la difficulté à effectuer une recherche d'information efficace est que les ressources existantes sur le web sont exprimées sous une forme destinée à la compréhension humaine. En d'autres termes, ces données sont difficilement utilisables par la machine et l'intervention humaine s'avère indispensable. Ainsi, l'un des principaux challenges est d'imaginer des outils intelligents fondés sur les concepts et méthodes autour de la représentation et du traitement des connaissances pour créer des données exploitables par la machine et obtenir de meilleurs résultats. Le chapitre 2 évalue et étudie les méthodes existantes et leurs limitations. De nombreux chercheurs ont travaillé sur la problématique de la compréhension des données par la machine et certaines des solutions les plus intéressantes sont les ontologies basées sur le « web sémantique ». Les ontologies permettent une meilleure « compréhension » des documents et facilitent à l'aide d'outils appropriés la qualité des recherches dans l'information existante. L'accent est mis sur la réflexion nécessaire à la construction de la signification du concept relié aux réseaux pour la représentation des connaissances. L'idée est de tendre vers la production semi-automatique voire complètement automatique de résultats de grande qualité. Autrement dit, l'objectif est de minimiser l'intervention humaine est de maximiser la qualité des résultats obtenus. Le chapitre 3 présente la plate-forme ToxNuc-E et le positionnement de notre recherche autour de cette plate-forme. Etant donné l'importance pratique et théorique du développement d'ontologies, il n'est pas surprenant de retrouver un grand nombre de chercheurs, fervents et engagés dans ce domaine de recherche. Dans le cadre de notre travail de recherche nous proposons une approche nouvelle, dite ESN (« Extended Semantic Network »), qui contrairement aux approches classiques, basées sur les mots clés, fonde la construction d'ontologie sur la convergence d'associations entre concepts ou nœuds sémantiques sur un ensemble de thèmes et la proximité des termes dans un ensemble de documents. Notre terrain d'application est le programme de toxicologie nucléaire environnementale français : ToxNuc-E. Le chapitre 4 précise le concept de « réseau de proximité », généré par des modèles mathématiques. L'idée de base de notre approche ESN est de construire efficacement une ontologie adaptée à la recherche d'information dans de larges corpus. La première phase consiste à traiter une grande quantité d'information textuelle en utilisant des modèles mathématiques pour automatiser la construction d'un embryon d'ontologie. L'objectif est d'obtenir un réseau de mots qui peut être assez volumineux. Celui-ci est calculé en utilisant des outils mathématiques venant de l'analyse de données et la classification automatique. Ainsi, la création d'un réseau de proximité repose alors sur la proximité des mots dans un document. Le chapitre 5 présente la construction des « réseaux sémantiques » et introduit notre modèle de conception pour gagner en efficacité. Le réseau sémantique est essentiellement un graphe orienté étiqueté permettant l'utilisation de règles génériques, de l'héritage, et de la représentation orientée objet. Il est souvent utilisé comme une forme de représentation des connaissances, où les concepts représentés par les nœuds sont connectés l'un à l'autre en utilisant les liens relationnels représentés par des arcs. Le réseau sémantique est construit de façon manuelle avec l'aide d'experts de la connaissance possédants la compréhension d'un domaine. Il est donc principalement construit par les hommes, dans notre approche de taille assez réduite, et d'une très bonne précision. Le chapitre 6 détaille le « réseau sémantique étendu ». La deuxième phase de traitement consiste à examiner attentivement et de manière efficace les différentes possibilités d'intégrer les informations issues du modèle mathématique (réseau de proximité) et du modèle cognitif développé manuellement (réseau sémantique). Cette phase se base sur une méthode heuristique développée dans l'extension des réseaux et utilisant les résultats de la méthode mathématique. Cette phase se termine en considérant le modèle humain (développé manuellement) comme le point d'entrée de notre réseau de concepts. L'idée principale est de développer une approche novatrice combinant les caractéristiques humaines et la théorie des concepts utilisée par la machine. Les résultats peuvent présenter un grand intérêt dans différents champs de recherche tels que la représentation des connaissances, la classification, l'extraction, ainsi que le filtrage des données. Le chapitre 7 illustre quelques expérimentations réalisées à l'aide de notre réseau sémantique étendu et ouvre des orientations pour les perspectives d'avenir. Les questions concernant la représentation des connaissances, la gestion, le partage et l'extraction d'information sont passionnantes et complexes. Cet attrait est en toute évidence essentiellement du aux rapports entre l'homme et la machine. Le fait que nous essayons de combiner les résultats de deux aspects différents constitue l'une des caractéristiques les plus intéressantes de notre recherche actuelle. Notre proposition peut faciliter la construction d'ontologies de manière plus rapide et plus simple. Le réseau sémantique étendu peut être utilisé, à la place d'une ontologie plus classique, par des outils comme par exemple : un classificateur de documents. Nous considérons notre résultat comme étant structuré par l'esprit et calculé par la machine. L'une des principales perspectives pour le travail à suivre est de trouver un bon compromis entre concepts du réseau sémantique et graphes de mot issus du réseau de proximité. D'autres perspectives à ce travail consistent à mettre en place des benchmarks dans différents contextes pour mesurer l'efficacité de notre prototype.
48

Problèmes mathématiques et numériques issus de l'imagerie par résonance magnétique nucléaire

Boissoles, Patrice 02 December 2005 (has links) (PDF)
La présence d'objets métalliques en Imagerie par Résonance Magnétique provoque des dysfonctionnements qui peuvent se manifester par des artefacts, des échauffements, ... Dans le présent travail, on construit et étudie des modèles mettant en évidence le phénomène d'échauffement.<br /><br />Dans la première partie, on étudie l'antenne cage d'oiseau. On montre que les pulsations de résonance sont les valeurs propres d'un problème aux valeurs propres généralisé et on développe une méthode de calcul efficace de celles-ci. On étudie ensuite les propriétés du champ radiofréquence à l'aide de simulations numériques : mouvement de rotation en tout point et homogénéité au centre de l'antenne.<br /><br />Dans la deuxième partie, on modélise le problème magnétique associé à l'IRM par les équations de Maxwell avec le champ radiofréquence comme condition aux limites. On montre que ce problème est bien posé en dimension 3 et qu'il est équivalent à une série de problèmes axisymétriques bidimensionnels découplés. Des calculs numériques sont effectués sur les problèmes axisymétriques, qui confirment les résultats théoriques obtenus.
49

Modélisation mathématique de l'athérosclérose

El Khatib, Nader 29 May 2009 (has links) (PDF)
L'athérosclérose est une maladie inflammatoire qui commence quand les lipoprotéines de faible densité (LDL) entrent dans l'intima du vaisseau sanguin où elles sont oxydées (ox-LDL). Le ox-LDL est considéré comme un agent dangereux par le système immunitaire provoquant ainsi une réponse immunitaire. Cette réponse immunitaire déclenche le recrutement des monocytes dans l'intima où elles se transforment en macrophages et ensuite en cellules spumeuses. Ce dernier amplifie la production des cytokines inflammatoires et davantage de recrutement des monocytes. Ce processus auto-amplifié est compensé par la sécrétion de cytokines anti-inflammatoires (anti-inflammation biochimique) et la migration des cellules musculaires lisses pour former une chape fibreuse qui couvre le noyau lipidique. Cette chape fibreuse avec le noyau lipidique s'appellent la plaque d'athérosclérose. Celle-ci change la géométrie du vaisseau sanguin en le rétrécissant et interagit avec du flux sanguin. Cette interaction peut avoir des conséquences dangereuses liées à la rupture de plaque ou à la formation du caillot de sang. La thèse est consacrée à la modélisation mathématique de ces phénomènes. Elle est composée de deux parties : Nous développons des modèles mathématiques basés sur des équations de réaction diffusion afin de décrire le processus inflammatoire. Le premier modèle est unidimensionnel. Il nous permet d'expliquer comment le développement de l'athérosclérose dépend de la concentration en cholestérol (ox-LDL). Si cette concentration dans l'intima est basse, alors la maladie ne se développera pas. Les concentrations intermédiaires de ox-LDL peuvent mener au développement de la maladie dans certaines conditions. Nous montrons que l'inflammation se propage en front d'ondes de réaction-diffusion. Les concentrations élevées de ox-LDL engendre le développement de la maladie. Même une petite perturbation du cas non inflammatoire mène à une propagation d'ondes qui correspond à l'inflammation. Ensuite nous étudions un modèle bidimensionnel qui représente un système d'équations type réaction-diffusion sur une bande. La deuxième dimension correspond à la section transversale de l'intima et une condition aux limites non-linéaire décrit le recrutement des monocytes. Cette condition aux limites est une fonction des concentrations des cytokines. Nous démontrons l'existence des fronts de propagation d'onde et confirmons les résultats précédents qui montrent que l'athérosclérose se développe en tant qu'onde de réaction-diffusion. Les résultats théoriques des deux modèles sont confirmés par des simulations numériques qui montrent que le cas bidimensionnel converge vers le cas unidimensionnel quand l'épaisseur de l'intima tend vers zéro. Une fois la plaque se forme, elle interagit avec le flux sanguin engendrant de différentes conséquences mécaniques et biochimiques. Nous développons un modèle d'interaction fluide-structure. La plaque d'athérome composée d'un dépôt lipidique couvert par une chape fibreuse, les deux étant modélisés en tant que matériaux hyper-élastiques. Le sang est considéré comme un fluide non-Newtonien avec une viscosité variable modélisée selon la loi de Carreau. Les paramètres utilisés dans nos simulations sont tirés de données expérimentales mentionnées dans la littérature. Nous étudions les effets non-Newtoniens sur les recirculations du sang en aval de la plaque d'athérome et aussi sur les contraintes sur celle-ci. Les simulations montrent que le modèle Newtonien surestime les recirculations de manière significative par rapport au modèle non-Newtonien. Elles montrent aussi que le modèle Newtonien sous-estime légèrement les contraintes sur la plaque pour des taux de cisaillement usuels, mais cette sous-estimation devient importante pour des taux de cisaillement bas.
50

Modèles cinétiques. Applications en volcanologie et neurosciences.

Mancini, Simona 08 November 2012 (has links) (PDF)
Les travaux présentés concernent l'étude analytique et numérique de différents modèles cinétiques appliqués à plusieurs domaines, plus particulièrement : aux neurosciences computationelles et à la volcanologie. Les points communs à ces sujets de recherche sont : - l'utilisation des équations aux dérivées partielles pour l'écriture des modèles mathématiques en partant d'une description microscopique du phénomène, - leur résolution numérique par des schémas déterministes, - une importante interaction avec les collègues bio et géo-physiciens. Les travaux effectuées en collaboration avec les collègues de géophysique (ISTO, Orléans), proposent une description statistique de l'évolution d'une population de bulles de gaz dans un fluide très visqueux. Cette modélisation souligne l'importance de la prise en compte de la coalescence de bulles et ouvre la voie à plusieurs axes de recherche en mathématique et en volcanologie. Les résultats obtenus en neurosciences computationelles sont basés sur des travaux récents concernant les systèmes d'équations stochastiques lents-rapides. Ils permettent de réduire un problème bidimensionnel, nécessitant des moyens de calcul importants, à un modèle unidimensionnel dont la solution d'équilibre est explicite.

Page generated in 0.0618 seconds