• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 35
  • 14
  • Tagged with
  • 148
  • 44
  • 25
  • 22
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Implication du cytosquelette dans les dysfonctions myocardiques : exemple de la cardiomyopathie septique

Préau, Sébastien 26 November 2013 (has links) (PDF)
Le cytosquelette se compose de microfilaments (polymères d'actine), de microtubules (polymères de tubuline) et de filaments intermédiaires (polymères de desmine, de lamines ...). Le sepsis défini par une infection associée à une réaction inflammatoire systémique est responsable de dysfonctions myocardiques de mauvais pronostique. Cette cardiomyopathie apparait dans les premières heures du sepsis et guérit en moins de deux semaines chez les survivants. Même si certaines études démontrent l'implication d'éléments du cytosquelette dans la cardiomyopathie septique, les rôles des microfilaments et des microtubules ne sont pas clairement établis.Macrophage migration inhibitory factor (MIF) est une cytokine pro-inflammatoire sécrétée en excès dans le sepsis qui serait responsable d'un ralentissement de la récupération myocardique. Dans un premier temps, notre travail a consisté à caractériser l'implication des microtubules dans la dysfonction musculaire cardiaque induite par MIF. Dans un modèle de trabécules auriculaires droites humaines nous avons démontré que MIF induit une hyperpolymérisation des microtubules responsable d'une hyperviscosité intracellulaire, d'une dysfonction mitochondriale et d'une dysfonction contractile. Nos résultats suggèrent qu'une hyperpolymérisation des microtubules induite par MIF pourrait être responsable d'un ralentissement de la récupération myocardique à la phase tardive de la myocardiopathie septique. Dans un second temps, nous avons évalué l'implication des microfilaments dans un modèle murin de dysfonction myocardique inflammatoire induite par l'injection d'une endotoxine bactérienne, le lipopolysaccharide. Nos résultats suggèrent qu'à la phase précoce de la cardiomyopathie inflammatoire il existe une hyperpolymérisation des microfilaments responsable de dysfonctions contractile et mitochondriale.Les connaissances fondamentales acquises au cours de ce travail de thèse suggèrent une implication directe des microtubules et des microfilaments dans la physiopathologie des cardiomyopathies inflammatoires.
62

« Resolution Search » et problèmes d’optimisation discrète

Posta, Marius 02 1900 (has links)
Thèse réalisée en cotutelle avec l'Université d'Avignon. / Les problèmes d’optimisation discrète sont pour beaucoup difficiles à résoudre, de par leur nature combinatoire. Citons par exemple les problèmes de programmation linéaire en nombres entiers. Une approche couramment employée pour les résoudre exactement est l’approche de Séparation et Évaluation Progressive. Une approche différente appelée « Resolution Search » a été proposée par Chvátal en 1997 pour résoudre exactement des problèmes d’optimisation à variables 0-1, mais elle reste mal connue et n’a été que peu appliquée depuis. Cette thèse tente de remédier à cela, avec un succès partiel. Une première contribution consiste en la généralisation de Resolution Search à tout problème d’optimisation discrète, tout en introduisant de nouveaux concepts et définitions. Ensuite, afin de confirmer l’intérêt de cette approche, nous avons essayé de l’appliquer en pratique pour résoudre efficacement des problèmes bien connus. Bien que notre recherche n’ait pas abouti sur ce point, elle nous a amené à de nouvelles méthodes pour résoudre exactement les problèmes d’affectation généralisée et de localisation simple. Après avoir présenté ces méthodes, la thèse conclut avec un bilan et des perspectives sur l’application pratique de Resolution Search. / The combinatorial nature of discrete optimization problems often makes them diffi- cult to solve. Consider for instance integer linear programming problems, which are commonly solved using a Branch-and-Bound approach. An alternative approach, Resolution Search, was proposed by Chvátal in 1997 for solving 0-1 optimization problems, but remains little known to this day and as such has seen few practical applications. This thesis attempts to remedy this state of affairs, with partial success. Its first contribution consists in the generalization of Resolution Search to any discrete optimization problem, while introducing new definitions and concepts. Next, we tried to validate this approach by attempting to solve well-known problems efficiently with it. Although our research did not succeed in this respect, it lead us to new methods for solving the generalized assignment and uncapacitated facility location problems. After presenting these methods, this thesis concludes with a summary of our attempts at practical application of Resolution Search, along with further perspectives on this matter.
63

Quelques utilisations de la densité GEP en analyse bayésienne sur les familles de position-échelle

Desgagné, Alain January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
64

Optimisation spatio-temporelle d’efforts de recherche pour cibles manoeuvrantes et intelligentes / Spatio-temporal optimisation of search efforts for smart and reactive moving targets

Chouchane, Mathieu 17 October 2013 (has links)
Dans cette thèse, nous cherchons à répondre à une problématique formulée par la DGA Techniques navales pour surveiller une zone stratégique : planifier le déploiement spatial et temporel optimal d’un ensemble de capteurs de façon à maximiser les chances de détecter une cible mobile et intelligente. La cible est dite intelligente car elle est capable de détecter sous certaines conditions les menaces que représentent les capteurs et ainsi de réagir en adaptant son comportement. Les déploiements générés pouvant aussi avoir un coût élevé nous devons tenir compte de ce critère lorsque nous résolvons notre problématique. Il est important de noter que la résolution d’un problème de ce type requiert, selon les besoins, l’application d’une méthode d’optimisation mono-objectif voire multiobjectif. Jusqu’à présent, les travaux existants n’abordent pas la question du coût des déploiements proposés. De plus la plupart d’entre eux ne se concentrent que sur un seul aspect à la fois. Enfin, pour des raisons algorithmiques, les contraintes sont généralement discrétisées.Dans une première partie, nous présentons un algorithme qui permet de déterminer le déploiement spatio-temporel de capteurs le plus efficace sans tenir compte de son coût. Cette méthode est une application à l’optimisation de la méthode multiniveau généralisée.Dans la seconde partie, nous montrons d’abord que l’utilisation de la somme pondérée des deux critères permet d’obtenir des solutions sans augmenter le temps de calcul. Pour notre seconde approche, nous nous inspirons des algorithmes évolutionnaires d’optimisation multiobjectif et adaptons la méthode multiniveau généralisée à l’optimisation multiobjectif. / In this work, we propose a solution to a problem issued by the DGA Techniques navales in order to survey a strategic area: determining the optimal spatio-temporal deployment of sensors that will maximize the detection probability of a mobile and smart target. The target is said to be smart because it is capable of detecting the threat of the sensors under certain conditions and then of adapting its behaviour to avoid it. The cost of a deployment is known to be very expensive and therefore it has to be taken into account. It is important to note that the wide spectrum of applications within this field of research also reflects the need for a highly complex theoretical framework based on stochastic mono or multi-objective optimisation. Until now, none of the existing works have dealt with the cost of the deployments. Moreover, the majority only treat one type of constraint at a time. Current works mostly rely on operational research algorithms which commonly model the constraints in both discrete space and time.In the first part, we present an algorithm which computes the most efficient spatio-temporal deployment of sensors, but without taking its cost into account. This optimisation method is based on an application of the generalised splitting method.In the second part, we first use a linear combination of the two criteria. For our second approach, we use the evolutionary multiobjective optimisation framework to adapt the generalised splitting method to multiobjective optimisation. Finally, we compare our results with the results of the NSGA-II algorithm.
65

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes

Diamoutene, Abdoulaye 26 November 2018 (has links) (PDF)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold"
66

Viscoelasticity of model aggregate polymer nanocomposites / Modélisation de la rhéologie des polymères nano-composites

Wang, Yang 06 March 2018 (has links)
Les nanocomposites polymères ont fait l'objet de recherches académiques et industrielles au cours des dernières décennies, du fait de leurs remarquables propriétés mécaniques et rhéologiques comparés aux polymères purs. En particulier, ils présentent du renforcement pour des fractions volumiques modérées, et des effets non linéaires pour des déformations relativement faibles. Malgré des décennies de recherche, la relation entre la rhéologie et la structure des nanocomposites est loin d'être comprise. Les simulations atomistiques peuvent donner une vision détaillée de l'interaction entre la dynamique des chaînes polymères et les charges renforçantes à une échelle locale. Cependant, il est difficile d'aborder les propriétés émergentes à une échelle mésoscopique, par exemple, simuler un grand nombre d'agrégats dans une matrice polymère enchevêtrée reste toujours hors de portée. Dans ce travail, nous proposons un modèle mésoscopique pour simuler la rhéologie des nanocomposites avec un fluide simple ou une matrice polymère enchevetrée, en utilisant la dynamique brownienne et la dynamique généralisée de Langevin, respectivement. Dans les deux dynamiques, le mouvement des chaines de polymère n'est pas décrit de façon explicite et son effet sur la dynamique de la charge est «moyenné». En utilisant ce modèle, nous étudions l'influence du type de charge, de leur taille, morphologie, et fraction volumique sur la rhéologie du composite modèle, ainsi que la morphologie des charges dans les simulations. Un cas particulièrement intéressant est celui d'agrégats quasi-fractals, qui peuvent être flexibles ou bien rigides. Nous démontrons que les systèmes avec agrégats présentent un renforcement significatif, qui augmente avec la taille des agrégats, leur rigidité, leur fraction volumique et leur polydispersité en taille. Une relaxation lente est également mise en évidence, et nous montrons qu'elle est liée à la rotation lente des agrégats. L'effet Payne, associé à la réponse non linéaire des modules dynamiques avec l'amplitude de déformation de cisaillement, est également observé pour nos modèles de composites. Nous faisons le lien entre l'arrangement microscopique des charges sous cisaillement et les propriétés macroscopiques du composite / Polymer nanocomposites have drawn a lot of attention both from the academic and industrial research in the last decades, thanks to their remarkable mechanical and rheological properties as compared to pure polymers. In particular, they may display reinforcement for moderate volume fractions, and several non linear effects that appear for small deformation amplitudes. In spite of decades of research, the relation between nanocomposites structure and rheology is far from being understood. Atomistic simulations can give a detailed view of the interplay between polymer chains dynamics and fillers at a local scale. However, it is much more difficult to address the properties emerging at a mesoscopic scale, for instance, to simulate a large number of aggregates in an entangled polymeric matrix remains out of reach. In this work, we build a mesoscopic model to simulate the rheology of polymer nanocomposites with a simple fluid and an entangled polymer matrix, by using the Brownian dynamics and the generalized Langevin dynamics, respectively. In both cases, the motion of the polymer chains is not explicitly described and its effect on the filler dynamics is "averaged out". Using this model, we quantitatively determine the influences of the filler type, the filler volume fraction, size and morphology on the rheology of the model composite. Of particular interest is the case of fractal-like aggregates, which may be flexible or rigid. We demonstrate that model aggregates display significant reinforcement, which increases with the aggregate size, aggregate rigidity, filler volume fraction and polydispersity. Long relaxation times are also evidenced, which are related to the slow rotation of the aggregates. The well-known Payne effect, associated to the nonlinear response of the dynamic moduli with the shear deformation amplitude, is also seen in our model composites. We relate the behavior of microscopic filler to the macroscopic properties of the composite
67

Development of Numerical Methods to Accelerate the Prediction of the Behavior of Multiphysics under Cyclic Loading / Développement de méthodes numériques en vue d'une prédiction plus rapide du comportement multiphysique sous chargement cyclique

Al Takash, Ahmad 23 November 2018 (has links)
La réduction du temps de calcul lors de la résolution de problèmes d’évolution dans le cadre du calcul de structure constitue un enjeu majeur pour, par exemple, la mise en place de critères de rupture des pièces dans le secteur de l’aéronautique et de l’automobile. En particulier, la prédiction du cycle stabilisé des polymères sollicités sous chargement cyclique nécessite de résoudre un problème thermo-viscoélastique à grand nombre de cycles. La présence de différentes échelles de temps telles que le temps de relaxation (viscosité), le temps caractéristique associé au problème thermique et le temps du cycle de chargement conduit à un temps de calcul significatif lorsqu’un schéma incrémental est utilisé comme c’est le cas avec la méthode des éléments finis (MEF). De plus, un nombre important de données doit être stocké (au moins à chaque cycle). L’objectif de cette thèse est de proposer de nouvelles méthodes ainsi que d’étendre des méthodes existantes. Il est choisi de résoudre un problème thermique transitoire cyclique impliquant différentes échelles de temps avec l’objectif de réduire le temps de calcul réduit. Les méthodes proposées font partie des méthodes de réduction de modèles. Tout d’abord, la méthode de décomposition propre généralisée(PGD) a été étendue à un problème transitoire cyclique 3D non linéaire, la non-linéarité a été traitée en combinant la méthode PGD à la Méthode d’interpolation empirique discrète (DEIM), stratégie numérique déjà proposée dans la littérature. Les résultats ont montré l’efficacité de la PGD pour générer des résultats précis par rapport à la solution FEM avec une erreur relative inférieure à (1%). Ensuite, afin de réduire le temps de calcul, une autre approche alternative a été développée. Cette approche est basée sur l’utilisation d’une collection de modes, les modes les plus significatifs, issus de solutions PGD pour différentes échelles de temps et différentes valeurs de paramètres. Un dictionnaire regroupant ces modes est alors utilisé pour construire des solutions pour différents temps caractéristiques et différentes conditions aux limites, uniquement par projection de la solution sur les modes du dictionnaire. Cette approche a été adaptée pour traiter un problème faiblement couplé diffuso-thermique. La nouveauté de cette approche est de considérer un dictionnaire composé de bases spatio-temporelles et non pas uniquement de bases spatiales comme dans la fameuse méthode POD. Les résultats obtenus avec cette approche sont précis et permettent une réduction notable du temps de calcul on line. Néanmoins, lorsque différents temps de cycles sont considérés, le nombre de modes dans le dictionnaire augmente, ce qui en limite son utilisation. Afin de pallier cette limitation,une troisième stratégie numérique est proposée dans cette thèse. Elle consiste à considérer comme a priori connues des bases temporelles, elle est appelée stratégie mixte. L’originalité dans cette approche réside dans la construction de la base temporelle a prior basée sur l’analyse de Fourier de différentes simulations pour différents temps et différentes valeurs des paramètres. Une fois cette étude réalisée, une expression analytique des bases temporelles fonction des paramètres tels que le temps caractéristique et le temps du cycle est proposée. Les bases spatiales associées sont calculées à l’aide d’un algorithme type PGD. Cette méthode est ensuite testée pour la résolution de problèmes thermiques 3D sous chargement cyclique linéaires et non linéaires et un problème faiblement couplé thermo-diffusion. / In the framework of structural calculation, the reduction of computation time plays an important rolein the proposition of failure criteria in the aeronautic and automobile domains. Particularly, the prediction of the stabilized cycle of polymer under cyclic loading requires solving of a thermo-viscoelastic problem with a high number of cycles. The presence of different time scales, such as relaxation time (viscosity), thermal characteristic time (thermal), and the cycle time (loading) lead to a huge computation time when an incremental scheme is used such as with the Finite Element Method (FEM).In addition, an allocation of memory will be used for data storage. The objective of this thesis isto propose new techniques and to extend existent ones. A transient thermal problem with different time scales is considered in the aim of computation time reduction. The proposed methods are called model reduction methods. First, the Proper Generalized Decomposition method (PGD) was extended to a nonlinear transient cyclic 3D problems. The non-linearity was considered by combining the PGD method with the Discrete Empirical Interpolation Method (DEIM), a numerical strategy used in the literature. Results showed the efficiency of the PGD in generating accurate results compared to the FEM solution with a relative error less than 1%. Then, a second approach was developed in order to reduce the computation time. It was based on the collection of the significant modes calculated from the PGD method for different time scales. A dictionary assembling these modes is then used to calculate the solution for different characteristic times and different boundary conditions. This approach was adapted in the case of a weak coupled diffusion thermal problem. The novelty of this method is to consider a dictionary composed of spatio-temporal bases and not spatial only as usedin the POD. The results showed again an exact reproduction of the solution in addition to a huge time reduction. However, when different cycle times are considered, the number of modes increases which limits the usage of the approach. To overcome this limitation, a third numerical strategy is proposed in this thesis. It consists in considering a priori known time bases and is called the mixed strategy. The originality in this approach lies in the construction of a priori time basis based on the Fourier analysis of different simulations for different time scales and different values of parameters.Once this study is done, an analytical expression of time bases based on parameters such as the characteristic time and the cycle time is proposed. The related spatial bases are calculated using the PGD algorithm. This method is then tested for the resolution of 3D thermal problems under cyclic loading linear and nonlinear and a weak coupled diffusion thermal problem.
68

Modélisation stochastique de processus d'agrégation en chimie / Stochastic modeling of aggregation and floculation processes in chemestry

Paredes Moreno, Daniel 27 October 2017 (has links)
Nous concentrons notre intérêt sur l'Équation du Bilan de la Population (PBE). Cette équation décrit l'évolution, au fil du temps, des systèmes de particules en fonction de sa fonction de densité en nombre (NDF) où des processus d'agrégation et de rupture sont impliqués. Dans la première partie, nous avons étudié la formation de groupes de particules et l'importance relative des variables dans la formation des ces groupes en utilisant les données dans (Vlieghe 2014) et des techniques exploratoires comme l'analyse en composantes principales, le partitionnement de données et l'analyse discriminante. Nous avons utilisé ce schéma d'analyse pour la population initiale de particules ainsi que pour les populations résultantes sous différentes conditions hydrodynamiques. La deuxième partie nous avons étudié l'utilisation de la PBE en fonction des moments standard de la NDF, et les méthodes en quadrature des moments (QMOM) et l'Extrapolation Minimale Généralisée (GME), afin de récupérer l'évolution, d'un ensemble fini de moments standard de la NDF. La méthode QMOM utilise une application de l'algorithme Produit- Différence et GME récupère une mesure discrète non-négative, étant donnée un ensemble fini de ses moments standard. Dans la troisième partie, nous avons proposé un schéma de discrétisation afin de trouver une approximation numérique de la solution de la PBE. Nous avons utilisé trois cas où la solution analytique est connue (Silva et al. 2011) afin de comparer la solution théorique à l'approximation trouvée avec le schéma de discrétisation. La dernière partie concerne l'estimation des paramètres impliqués dans la modélisation des processus d'agrégation et de rupture impliqués dans la PBE. Nous avons proposé une méthode pour estimer ces paramètres en utilisant l'approximation numérique trouvée, ainsi que le Filtre Étendu de Kalman. La méthode estime interactivement les paramètres à chaque instant du temps, en utilisant un estimateur de Moindres Carrés non-linéaire. / We center our interest in the Population Balance Equation (PBE). This equation describes the time evolution of systems of colloidal particles in terms of its number density function (NDF) where processes of aggregation and breakage are involved. In the first part, we investigated the formation of groups of particles using the available variables and the relative importance of these variables in the formation of the groups. We use data in (Vlieghe 2014) and exploratory techniques like principal component analysis, cluster analysis and discriminant analysis. We used this scheme of analysis for the initial population of particles as well as in the resulting populations under different hydrodynamics conditions. In the second part we studied the use of the PBE in terms of the moments of the NDF, and the Quadrature Method of Moments (QMOM) and the Generalized Minimal Extrapolation (GME), in order to recover the time evolution of a finite set of standard moments of the NDF. The QMOM methods uses an application of the Product-Difference algorithm and GME recovers a discrete non-negative measure given a finite set of its standard moments. In the third part, we proposed an discretization scheme in order to find a numerical approximation to the solution of the PBE. We used three cases where the analytical solution is known (Silva et al. 2011) in order to compare the theoretical solution to the approximation found with the discretization scheme. In the last part, we proposed a method for estimate the parameters involved in the modelization of aggregation and breakage processes in PBE. The method uses the numerical approximation found, as well as the Extended Kalman Filter. The method estimates iteratively the parameters at each time, using an non- linear Least Square Estimator.
69

Contribution à l'étude des équations différentielles et aux différences dans le champ complexe

Barkatou, My Abdelfattah 06 June 1989 (has links) (PDF)
Un logiciel pour les solutions formelles d'équations différentielles linéaires d'ordre 2 au voisinage de points singuliers est présenté. Pour les équations d'ordre quelconque on donne une version modifiée de l'algorithme de newton. Un algorithme permettant d'obtenir une base de solutions asymptotiques d'une équation récurrente linéaire à coefficients polynomiaux est ensuite présenté. Ceci mène à l'étude des systèmes linéaires aux différences à coefficients séries de factorielles
70

Un modèle et un langage pour les bases de données généralisées: projet TIGRE

Velez Jara, Fernando 05 September 1984 (has links) (PDF)
Cette thèse traite du problème de la gestion de bases de données où les informations à stocker et à manipuler sont de nature diverse (factuelles, textuelles, imagées,...) et à structure interne éventuellement complexe. Ces données dites «généralisées» apparaissent dans des applications bureautiques et de conception assistée par ordinateur. Présentation du modèle TIGRE et du langage de définition et de manipulation associé (LAMBDA)

Page generated in 0.0629 seconds