• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 84
  • 13
  • 1
  • Tagged with
  • 307
  • 82
  • 71
  • 38
  • 35
  • 33
  • 29
  • 28
  • 28
  • 25
  • 25
  • 24
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Prix des ressources et rendement des actifs financiers au Canada

Odia Ndongo, Yves Francis 17 April 2018 (has links)
Le Modèle d'Évaluation des Actifs Financiers (MEDAF ou CAPM) stipule que l'écart de rendement entre un titre risqué et un titre sûr dépend seulement de deux variables : la covariance entre le rendement de ce titre et celui d'un portefeuille de référence (dit "de marché") et l'écart de rendement entre ce portefeuille de marché et un titre sûr. Les exercices de validation empirique effectués sur ce modèle simple ont toutefois amené beaucoup de chercheurs à postuler l'existence de facteurs additionnels pouvant expliquer le rendement des actifs financiers. C'est dans ce contexte que s'inscrit la contribution du présent mémoire. Nous postulons et ensuite vérifions si un facteur relié à l'évolution du prix des ressources (ou produits de base) pourrait contribuer à expliquer le rendement des actifs boursiers des entreprises cotées à la bourse de Toronto. L'analyse empirique du mémoire révèle que ce facteur " produits de base" peut jouer un rôle quantitatif significatif.
272

Misspecified financial models in a data-rich environment

Nokho, Cheikh I. 03 1900 (has links)
En finance, les modèles d’évaluation des actifs tentent de comprendre les différences de rendements observées entre divers actifs. Hansen and Richard (1987) ont montré que ces modèles sont des représentations fonctionnelles du facteur d’actualisation stochastique que les investisseurs utilisent pour déterminer le prix des actifs sur le marché financier. La littérature compte de nombreuses études économétriques qui s’intéressent à leurs estimations et à la comparaison de leurs performances, c’est-à-dire de leur capa- cité à expliquer les différences de rendement observées. Cette thèse, composée de trois articles, contribue à cette littérature. Le premier article examine l’estimation et la comparaison des modèles d’évaluation des actifs dans un environnement riche en données. Nous mettons en œuvre deux méthodes de régularisation interprétables de la distance de Hansen and Jagannathan (1997, HJ ci-après) dans un contexte où les actifs sont nombreux. Plus précisément, nous introduisons la régularisation de Tikhonov et de Ridge pour stabiliser l’inverse de la matrice de covariance de la distance de HJ. La nouvelle mesure, qui en résulte, peut être interprétée comme la distance entre le facteur d’actualisation d’un modèle et le facteur d’actualisation stochastique valide le plus proche qui évalue les actifs avec des erreurs contrôlées. Ainsi, ces méthodes de régularisation relâchent l’équation fondamentale de l’évaluation des actifs financiers. Aussi, elles incorporent un paramètre de régularisation régissant l’ampleur des erreurs d’évaluation. Par la suite, nous présentons une procédure pour estimer et faire des tests sur les paramètres d’un modèle d’évaluation des actifs financiers avec un facteur d’actualisation linéaire en minimisant la distance de HJ régularisée. De plus, nous obtenons la distribution asymptotique des estimateurs lorsque le nombre d’actifs devient grand. Enfin, nous déterminons la distribution de la distance régularisée pour comparer différents modèles d’évaluation des actifs. Empiriquement, nous estimons et comparons quatre modèles à l’aide d’un ensemble de données comportant 252 portefeuilles. Le deuxième article estime et compare dix modèles d’évaluation des actifs, à la fois inconditionnels et conditionnels, en utilisant la distance de HJ régularisée et 3 198 portefeuilles s’étendant de juillet 1973 à juin 2018. Ces portefeuilles combinent les portefeuilles bien connus triés par caractéristiques avec des micro-portefeuilles. Les micro-portefeuilles sont formés à l’aide de variables financières mais contiennent peu d’actions (5 à 10), comme indiqué dans Barras (2019). Par conséquent, ils sont analogues aux actions individuelles, offrent une grande variabilité de rendements et améliorent le pouvoir discriminant des portefeuilles classiques triés par caractéristiques. Parmi les modèles considérés, quatre sont des modèles macroéconomiques ou théoriques, dont le modèle de CAPM avec consommation (CCAPM), le modèle de CAPM avec consommation durable (DCAPM) de Yogo (2006), le modèle de CAPM avec capital humain (HCAPM) de Jagannathan and Wang (1996), et le modèle d’évaluation des actifs avec intermédiaires financiers (IAPM) de He, Kelly, and Manela (2017). Cinq modèles basés sur les anomalies sont considérés, tels que les modèles à trois (FF3) et à cinq facteurs (FF5) proposés par Fama and French, 1993 et 2015, le modèle de Carhart (1997) intégrant le facteur Momentum dans FF3, le modèle de liquidité de Pástor and Stambaugh (2003) et le modèle q5 de Hou et al. (2021). Le modèle de consommation de Lettau and Ludvigson (2001) utilisant des données trimestrielles est également estimé. Cependant, il n’est pas inclus dans les comparaisons en raison de la puissance de test réduite. Par rapport aux modèles inconditionnels, les modèles conditionnels tiennent compte des cycles économiques et des fluctuations des marchés financiers en utilisant les indices d’incertitude macroéconomique et financière de Ludvigson, Ma, and Ng (2021). Ces modèles conditionnels ont des erreurs de spécification considérablement réduites. Les analyses comparatives des modèles inconditionnels indiquent que les modèles macroéconomiques présentent globalement les mêmes pouvoirs explicatifs. De plus, ils ont un pouvoir explicatif global inférieur à celui des modèles basés sur les anomalies, à l’exception de FF3. L’augmentation de FF3 avec le facteur Momentum et de liquidité améliore sa capacité explicative. Cependant ce nouveau modèle est inférieur à FF5 et q5. Pour les modèles conditionnels, les modèles macroéconomiques DCAPM et HCAPM surpassent CCAPM et IAPM. En outre, ils ont des erreurs de spécification similaires à celles des modèles conditionnels de Carhart et de liquidité, mais restent en deçà des modèles FF5 et q5. Ce dernier domine tous les autres modèles. Le troisième article présente une nouvelle approche pour estimer les paramètres du facteur d’actualisation linéaire des modèles d’évaluation d’actifs linéaires mal spécifiés avec de nombreux actifs. Contrairement au premier article de Carrasco and Nokho (2022), cette approche s’applique à la fois aux rendements bruts et excédentaires. La méthode proposée régularise toujours la distance HJ : l’inverse de la matrice de second moment est la matrice de pondération pour les rendements bruts, tandis que pour les rendements excédentaires, c’est l’inverse de la matrice de covariance. Plus précisément, nous dérivons la distribution asymptotique des estimateurs des paramètres du facteur d’actualisation stochastique lorsque le nombre d’actifs augmente. Nous discutons également des considérations pertinentes pour chaque type de rendements et documentons les propriétés d’échantillon fini des estimateurs. Nous constatons qu’à mesure que le nombre d’actifs augmente, l’estimation des paramètres par la régularisation de l’inverse de la matrice de covariance des rendements excédentaires présente un contrôle de taille supérieur par rapport à la régularisation de l’inverse de la matrice de second moment des rendements bruts. Cette supériorité découle de l’instabilité inhérente à la matrice de second moment des rendements bruts. De plus, le rendement brut de l’actif sans risque présente une variabilité minime, ce qui entraîne une colinéarité significative avec d’autres actifs que la régularisation ne parvient pas à atténuer. / In finance, asset pricing models try to understand the differences in expected returns observed among various assets. Hansen and Richard (1987) showed that these models are functional representations of the discount factor investors use to price assets in the financial market. The literature counts many econometric studies that deal with their estimation and the comparison of their performance, i.e., how well they explain the differences in expected returns. This thesis, divided into three chapters, contributes to this literature. The first paper examines the estimation and comparison of asset pricing models in a data-rich environment. We implement two interpretable regularization schemes to extend the renowned Hansen and Jagannathan (1997, HJ hereafter) distance to a setting with many test assets. Specifically, we introduce Tikhonov and Ridge regularizations to stabilize the inverse of the covariance matrix in the HJ distance. The resulting misspecification measure can be interpreted as the distance between a proposed pricing kernel and the nearest valid stochastic discount factor (SDF) pricing the test assets with controlled errors, relaxing the Fundamental Equation of Asset Pricing. So, these methods incorporate a regularization parameter governing the extent of the pricing errors. Subsequently, we present a procedure to estimate the SDF parameters of a linear asset pricing model by minimizing the regularized distance. The SDF parameters completely define the asset pricing model and determine if a particular observed factor is a priced source of risk in the test assets. In addition, we derive the asymptotic distribution of the estimators when the number of assets and time periods increases. Finally, we derive the distribution of the regularized distance to compare comprehensively different asset pricing models. Empirically, we estimate and compare four empirical asset pricing models using a dataset of 252 portfolios. The second paper estimates and compares ten asset pricing models, both unconditional and conditional, utilizing the regularized HJ distance and 3198 portfolios spanning July 1973 to June 2018. These portfolios combine the well-known characteristic-sorted portfolios with micro portfolios. The micro portfolios are formed using firms' observed financial characteristics (e.g. size and book-to-market) but contain few stocks (5 to 10), as discussed in Barras (2019). Consequently, they are analogous to individual stocks, offer significant return spread, and improve the discriminatory power of the characteristics-sorted portfolios. Among the models, four are macroeconomic or theoretical models, including the Consumption Capital Asset Pricing Model (CCAPM), Durable Consumption Capital Asset Pricing Model (DCAPM) by Yogo (2006), Human Capital Capital Asset Pricing Model (HCAPM) by Jagannathan and Wang (1996), and Intermediary Asset pricing model (IAPM) by He, Kelly, and Manela (2017). Five anomaly-driven models are considered, such as the three (FF3) and Five-factor (FF5) Models proposed by Fama and French, 1993 and 2015, the Carhart (1997) model incorporating momentum into FF3, the Liquidity Model by Pástor and Stambaugh (2003), and the Augmented q-Factor Model (q5) by Hou et al. (2021). The Consumption model of Lettau and Ludvigson (2001) using quarterly data is also estimated but not included in the comparisons due to the reduced power of the tests. Compared to the unconditional models, the conditional ones account for the economic business cycles and financial market fluctuations by utilizing the macroeconomic and financial uncertainty indices of Ludvigson, Ma, and Ng (2021). These conditional models show significantly reduced pricing errors. Comparative analyses of the unconditional models indicate that the macroeconomic models exhibit similar pricing performances of the returns. In addition, they display lower overall explanatory power than anomaly-driven models, except for FF3. Augmenting FF3 with momentum and liquidity factors enhances its explanatory capability. However, the new model is inferior to FF5 and q5. For the conditional models, the macroeconomic models DCAPM and HCAPM outperform CCAPM and IAPM. Furthermore, they have similar pricing errors as the conditional Carhart and liquidity models but still fall short of the FF5 and q5. The latter dominates all the other models. This third paper introduces a novel approach for estimating the SDF parameters in misspecified linear asset pricing models with many assets. Unlike the first paper, Carrasco and Nokho (2022), this approach is applicable to both gross and excess returns as test assets. The proposed method still regularizes the HJ distance: the inverse of the second-moment matrix is the weighting matrix for the gross returns, while for excess returns, it is the inverse of the covariance matrix. Specifically, we derive the asymptotic distribution of the SDF estimators under a double asymptotic condition where the number of test assets and time periods go to infinity. We also discuss relevant considerations for each type of return and document the finite sample properties of the SDF estimators with gross and excess returns. We find that as the number of test assets increases, the estimation of the SDF parameters through the regularization of the inverse of the excess returns covariance matrix exhibits superior size control compared to the regularization of the inverse of the gross returns second-moment matrix. This superiority arises from the inherent instability of the second-moment matrix of gross returns. Additionally, the gross return of the risk-free asset shows minimal variability, resulting in significant collinearity with other test assets that the regularization fails to mitigate.
273

Développement et synthèse de polymères conjugués hydrosolubles et conducteurs pour applications en électronique imprimée

Beaumont, Catherine 07 June 2024 (has links)
Cela fait maintenant plus de 20 ans que le prix Nobel de chimie a été attribué aux professeurs Heeger, Shirakawa et McDiarmid pour souligner leurs travaux sur le développement des polymères conducteurs. Aujourd'hui, ces polymères sont maintenant étudiés pour remplacer les matériaux les plus performants utilisés dans divers dispositifs intelligents. Dans une ère où les avancées technologiques sont en plein essor, il devient essentiel de réfléchir à des solutions pour limiter l'impact environnemental de ce développement, et les polymères conjugués font partie des alternatives les plus prometteuses. L'objectif général de cette thèse est de développer de nouveaux polymères conjugués solubles dans l'eau, autodopés, conducteurs et imprimables dans le but de les utiliser dans des dispositifs électroniques. Ce projet a été développé au sein du réseau NSERC-Green Electronics Network, qui réunit plusieurs chercheurs de tout le Canada afin de développer une nouvelle génération d'électronique verte pour l'emballage intelligent. Dans un premier temps, une large gamme de polymères autodopés et hydrosolubles a pu être synthétisée. Ces matériaux ont été préparés par polymérisation par (hétéro)arylation directe et ont permis d'atteindre des conductivités allant jusqu'à 50 S/cm. Ce projet a permis d'identifier les matériaux les plus stables et les plus prometteurs pour une utilisation dans les dispositifs pour l'emballage intelligent. Par la suite, le meilleur candidat développé a été légèrement modifié afin d'obtenir un nouveau polymère conducteur soluble dans l'eau et réticulable. Ce matériau peut être imprimé et par la suite chauffé pour lui faire subir une réaction de réticulation, lui permettant d'être utilisé comme thermistor dans un détecteur de température stable pour l'emballage intelligent. Finalement, dans le dernier chapitre de cette thèse, les méthodes synthétiques des matériaux sont revisitées afin d'améliorer leurs propriétés optoélectroniques et d'obtenir des matériaux rivalisant avec des matériaux de pointe tel que l'oxyde d'indium-étain (ITO). La modification de la méthode de synthèse a permis d'améliorer considérablement les propriétés optoélectroniques des polymères. Ils ont ainsi pu être imprimés sur des substrats flexibles et ont démontré une conductivité et une transmittance se rapprochant fortement de celles de l'ITO commercial sur support plastique. / It has now been more than 20 years since the Nobel Prize in Chemistry was awarded to Professors Heeger, Shirakawa and McDiarmid to highlight their work on the development of conductive polymers. These polymers are now being studied to replace the most efficient materials used in intelligent devices. In an era where technological advances are booming, it becomes essential to think about solutions to limit the environmental impact of this development, and conjugated polymers are among the most promising alternatives. The general objective of this thesis is to develop new water-soluble, self-doped, conducting and printable conjugated polymers with the aim of using them in electronic devices. This project was developed within the NSERC-Green Electronics Network, which reunites several researchers from across Canada to develop a new generation of green electronics for smart packaging. In the first part of this thesis, a wide range of self-doped and water-soluble polymers were developed. These materials were synthesized by Direct (Hetero)Arylation Polymerization and made it possible to achieve conductivities of up to 50 S/cm. This project allowed to identify the most stable and promising materials for applications in smart packaging devices. Subsequently, the best developed candidate was slightly modified to obtain a new cross-linkable water-soluble conducting polymer. This material can be printed and subsequently heated to undergo a cross-linking reaction, allowing it to be used as a thermistor in a stable temperature detector for smart packaging. Finally, in the last chapter of this thesis, the synthetic pathway to obtain the materials is revisited to improve their optoelectronic properties in order to obtain materials that rival cutting-edge materials such as indium tin oxide (ITO). The modification of the synthesis method has made it possible to considerably improve the optoelectronic properties of the polymers. They could thus be printed on flexible substrates and demonstrated conductivity and transmittance very close to those of commercial ITO on plastic support.
274

Systemic risk in financial economic institutions / Risques systémiques au niveau des institutions économiques et financières

Mokbel, Rita 25 November 2016 (has links)
Les crises financières et les problèmes se formaient mais les indicateurs ne sont pas précis pour permettre une intervention réglementaire. La thèse propose un modèle dynamique pour le système bancaire avec une banque centrale afin de calculer un indicateur de faillite en fonction de la probabilité qu'une banque soit en faillite et les pertes rencontrées dans le réseau financier, une méthodologie qui peut améliorer la mesure, le suivi et la gestion du risque systémique.La thèse propose également des mécanismes de compensation : 1- avec un modèle considérant l'ancienneté du passif et avec un type d'actif liquide dont la vente excessive conduit à un impact sur le marché, 2 - avec un modèle considérant les participations croisées entres les banques dont les engagements interbancaires sont de différentes séniorités et avec un type d'actif liquide dont la vente excessive conduit à un impact sur le marché. / Financial crisis pose important theoretical problems on creating reliable indicator of stability of financial systems on which basis the regulators could intervene. The thesis proposes a dynamic model of banking system were the central bank can calculate an indicator of potential defaults taking into consideration the probability for a bank to default and the losses encountered in the financial network, a methodology that can improve the measurement, monitoring, and the management of the systemic risk. The thesis also suggests a clearing mechanisms : 1- in a model with seniority of liabilities and one type of liquid asset whose fire sale has a market impact, 2 - in a model with crossholdings among the banks whose interbank liabilities may be senior and junior and with one liquid asset whose firing sale has a market impact.
275

Evaluation des dérivés climatiques sur degrés-jours

Hamisultane, Hélène 14 December 2007 (has links) (PDF)
L'introduction sur le marché financier du premier dérivé climatique portant sur les degrés-jours en 1997 aux Etats-Unis, a donné lieu à un nombre important de travaux sur la valorisation des instruments climatiques et sur la modélisation de la température moyenne journalière. Cependant, aucune étude conjointe de l'ensemble des approches d'évaluation et des représentations de la température suggérées dans la littérature n'avait été menée jusqu'à présent sur le plan empirique. Nous nous sommes donc proposés dans la présente thèse de calculer les prix des contrats à terme et des options d'achat climatiques à partir des méthodes en l'absence d'arbitrage, actuarielle et fondée sur la consommation. Nous nous sommes particulièrement intéressés au calcul des prix des contrats sur les degrés-jours des villes de Chicago, de Cincinnati et de New York pour lesquelles nous avions constaté des transactions fréquentes sur le Chicago Mercantile Exchange. L'analyse conjointe des cours estimés des contrats à terme climatiques à partir des différentes méthodologies d'évaluation a montré que le calibrage des modèles d'évaluation était nécessaire pour obtenir des prévisions de prix proches des cotations et plus particulièrement de la réalisation réelle de l'indice des degrés-jours à l'échéance.
276

Segmentation, suivi et visualisation d'objets biologiques en microscopie 3D par fluorescence : Approches par modèles déformables

Dufour, Alexandre 04 December 2007 (has links) (PDF)
Nous nous intéressons à la détection et au suivi d'objets biologiques divers (cellules, noyaux, etc.) dans des images et séquences tri-dimensionnelles acquises en microscopie par fluorescence. L'observation de phénomènes biologiques in situ étant de plus en plus cruciale pour les experts, il est nécessaire, en plus de l'analyse quantitative, d'effectuer un rendu volumique 3D de la scène et des objets qui y évoluent. De plus, l'automatisation des techniques d'acquisition d'images requiert un haut niveau de reproductibilité des algorithmes et induit souvent des contraintes de temps de calcul que nous nous efforçons de prendre en compte.<br /><br />Les modèles déformables, également connus sous le nom de contours actifs, font actuellement partie des méthodes de pointe en analyse d'images pour la segmentation et le suivi d'objets grâce à leur robustesse, leur flexibilité et leur représentation à haut niveau sémantique des entités recherchées. Afin de les adapter à notre problématique, nous devons faire face à diverses difficultés. Tout d'abord, les méthodes existantes se réfèrent souvent aux variations locales d'intensité (ou gradients) de l'image pour détecter le contour des objets recherchés. Cette approche est inefficace en microscopie tridimensionnelle par fluorescence, où les gradients sont très peu prononcés selon l'axe de profondeur de l'image. Ensuite, nous devons gérer le suivi d'objets multiples susceptibles d'entrer en contact en évitant leur confusion. Enfin, nous devons mettre en place un système permettant de visualiser efficacement les contours durant leur déformation sans altérer les temps de calcul.<br /><br />Dans la première partie de ce travail, nous pallions à ces problèmes en proposant un modèle de segmentation et de suivi multi-objets basé sur le formalisme des lignes de niveaux (ou level sets) et exploitant la fonctionnelle de Mumford et Shah. La méthode obtenue donne des résultats quantitatifs satisfaisants, mais ne se prête pas efficacement au rendu 3D de la scène, pour lequel nous sommes tributaires d'algorithmes dédiés à la reconstruction 3D (e.g. la méthode des "Marching Cubes"), souvent coûteux en mémoire et en temps de calcul. De plus, ces algorithmes peuvent induire des erreurs d'approximation et ainsi entraîner une mauvaise interprétation des résultats.<br /><br />Dans la seconde partie, nous proposons une variation de la méthode précédente en remplaçant le formalisme des lignes de niveaux par celui des maillages triangulaires, très populaire dans le domaine de la conception assistée par ordinateur (CAO) pour leur rendu 3D rapide et précis. Cette nouvelle approche produit des résultats quantitatifs équivalents, en revanche le formalisme des maillages permet d'une part de réduire considérablement la complexité du problème et autorise d'autre part à effectuer un rendu 3D précis de la scène parallèlement au processus de segmentation, réduisant d'autant plus les temps de calculs.<br /><br />Les performances des deux méthodes proposées sont d'abord évaluées puis comparées sur un jeu de données simulées reproduisant le mieux possible les caractéristiques des images réelles. Ensuite, nous nous intéressons plus particulièrement à l'évaluation de la méthode par maillages sur des données réelles, en évaluant la robustesse et la stabilité de quelques descripteurs de forme simples sur des expériences d'imagerie haut-débit. Enfin, nous présentons des applications concrètes de la méthode à des problématiques biologiques réelles, réalisées en collaboration avec d'autres équipes de l'Institut Pasteur de Corée.
277

Stratégies cellulaires et environnementales pour le développement d’un substitut osseux prévascularisé / Cellular and environmental strategies for the development of a prevascularized bone subsitute

Willemin, Anne-Sophie 21 September 2018 (has links)
En cas de pertes de substances osseuses de grande étendue, la capacité naturelle de réparation du tissu osseux n’est pas suffisante et nécessite d’être assistée. La greffe d’os autologue constitue actuellement la référence. Cependant, cette thérapeutique présente tout de même des inconvénients qui ont entrainé le développement de substituts osseux. Mais, aucun matériau à ce jour ne peut remplacer totalement l’os autologue, en raison notamment de la difficulté à recréer un système vasculaire fonctionnel au niveau du site lésé. Depuis quelques années, les espoirs se tournent vers la création d’un substitut osseux prévascularisé afin de pallier la principale limite des alternatives actuelles : l’établissement d’un réseau vasculaire au sein de ce biomatériau. Notre projet vise à évaluer l’effet stimulateur d’un composé naturel, les principes actifs de la nacre solubles dans l’éthanol (appelé Ethanol Soluble Matrix, ESM), à la fois sur les capacités angiogéniques de cellules de la lignée endothéliale et sur la différenciation ostéogénique de cellules souches mésenchymateuses (CSM) avec comme objectif le développement d’un substitut osseux prévascularisé. Dans un premier temps, nous avons montré que l’ESM stimulait les capacités angiogéniques des cellules de la lignée endothéliale : cellules endothéliales matures (HUVECs, cellules endothéliales issues de la veine ombilicale humaine) et cellules progénitrices endothéliales (CPEs) issues de sang de cordon. L'ESM, utilisé à la concentration de 200µg/mL, a permis de dépasser les résultats obtenus (expression génique et test fonctionnel) avec le milieu de culture de référence des CPEs : l’EGM-2 (Endothelial Growth Medium). Nous avons ensuite mis en évidence que l’ESM exerçait un effet stimulateur également sur les CSMs en augmentant l’expression de marqueurs spécifiques des chondrocytes et des chondrocytes hypertrophiques, suggérant une orientation de ces cellules vers une ossification endochondrale. En parallèle de ces travaux, nous avons étudié l’effet paracrine des CSMs sur les cellules de la lignée endothéliale, HUVECs et CPEs. Les vésicules extracellulaires de taille nanométrique (nEVs) ont montré leur capacité à induire une stimulation in vitro de la formation de réseaux vasculaires et de l’expression de gènes endothéliaux. Ces résultats encourageants soulignent la faisabilité de l’utilisation de l’ESM en tant que stimulus à la fois de l’angiogenèse des CPEs et de l’ostéogenèse des CSMs. Ce stimulus pourrait être associé aux nEVs issues de CSMs et aux CPEs au sein d’une matrice tridimensionnelle pour développer un substitut osseux prévascularisé / In case of critical-sized defects, the bone tissue ability of natural healing is not sufficient and needs to be assisted. The autologous bone graft is currently the gold standard. However, this solution has drawbacks that have led to the development of bone substitutes. Nowadays, no substitute is able to supply autogenous bone, due to the difficulties to mimic the vascular system. In recent years, the hopes are focusing on the creation of a prevascularized bone substitute to overcome the main limitation of current alternatives: the creation of a functional vascular network inside the substitute. Our project aims to evaluate the stimulating effect of a natural compound, the nacre extracts called Ethanol Soluble Matrix (ESM), both on the angiogenic abilities of endothelial cell lineage and on the osteogenic differentiation of mesenchymal stem cells (MSCs) to develop a pre-vascularized bone substitute. First, we showed that ESM stimulates the angiogenic potential of two types of endothelial cells: mature endothelial cells (HUVECs, human umbilical vein endothelial cells) and endothelial progenitor cells (EPCs) from cord blood. The ESM, used at the concentration of 200µg/mL, exceeded results obtained with the reference culture medium of EPCs: the EGM-2 (Endothelial Growth Medium). Then, we demonstrated that ESM also exerted a stimulating effect on MSC by increasing the expression of chondrocyte and hypertrophic chondrocyte specific markers, suggesting an orientation of these cells towards endochondral ossification. In line with this work, we studied the paracrine effect of MSCs on endothelial cell lineage, HUVECs and EPCs. Nanoscale extracellular vesicles (nEVs) have been shown to induce an in vitro stimulation of the vascular network formation and of the endothelial gene expression. These encouraging results highlight the feasibility of using ESM as a stimulus for both angiogenesis of EPCs and osteogenesis of MSCs. This stimulus could be associated with MSC-derived nEVs and EPCs within a three-dimensional matrix to develop a pre-vascularized bone substitute
278

Observations multi-longueur d’onde d’amas et de groupes de galaxies proches

Gendron-Marsolais, Marie-Lou 07 1900 (has links)
No description available.
279

Imagerie Mathématique: segmentation sous contraintes géométriques ~ Théorie et Applications

Le Guyader, Carole 09 December 2004 (has links) (PDF)
Dans cette thèse, nous nous intéressons à des problèmes de segmentation d'images sous contraintes géométriques. Cette problématique a émergé suite à l'analyse de plusieurs méthodes classiques de détection de contours qui a été faite. En effet, ces méthodes classiques (Modèles déformables, contours actifs géodésiques, 'fast marching', etc...) se révèlent caduques quand des données de l'image sont manquantes ou de mauvaise qualité. En imagerie médicale par exemple, des phénomènes d'occlusion peuvent se produire : des organes peuvent se masquer en partie l'un l'autre (ex du foie). Par ailleurs, deux objets qui se jouxtent peuvent posséder des textures intrinsèques homogènes si bien qu'il est difficile d'identifier clairement l'interface entre ces deux objets. La définition classique d'un contour qui est caractérisé comme étant le lieu des points connexes présentant une forte transition de luminosité ne s'applique donc plus. Enfin, dans certains contextes d'étude, comme en géophysique, on peut disposer en plus des doneées d'imagerie, de données géométriques à intégrer au processus de segmentation.<br /><br />Pour pallier ces difficultés, nous proposons ici des modèles de segmentation intégrant des contraintes géométriques et satisfaisant les critères classiques de détection avec en particulier la régularité sur le contour que cela implique.
280

Développement d'un capteur de nouvelle génération et son électronique intégrée pour les collisionneurs futurs

Deptuch, Grzegorz 20 September 2002 (has links) (PDF)
Les détecteurs de vertex sont importants pour les expériences de la physique des particules, car la connaissance de la saveur présente dans un événement deviendra une question majeure dans le programme de physique auprès du Futur Collisionneur Linéaire. Un capteur monolithique à pixels actifs (MAPS) basé sur une structure originale a été proposé. Le capteur est inséparable de son électronique de lecture, puisque les deux sont intégrés sur la même tranche de silicum basse résistivité qui constitue le substrat classique pour une technologie CMOS. La configuration de base est composée uniquement de trois transistors et d'une diode qui collecte par diffusion thermique la charge. Celle-ci est générée dans la couche épitaxiale mince, non-désertée en dessous du circuit de lecture. Cela permet d'obtenir un détecteur mince, de haute résolution, d'une surface entièrement sensible à la radiation et d'un faible coût de fabrication. Les simulations détaillées ont été effectuées en utilisant le logiciel ISE-TCAD pour étudier le mécanisme de collection de charge. Quatre prototypes ont été fabriqués en technologies CMOS submicroniques pour démontrer la viabilité de cette technique. Le gain des pixels a été calibré par irradiation à l'aide d'une source 55Fe et en appliquant la méthode fondée sur la séquence de Poisson. Les prototypes ont été également exposés aux faisceaux de particules de haute énergie au CERN. D'excellentes performances de détection ont été prouvées. Elles s'expriment par un rapport signal sur bruit supérieur à 30, une résolution spatiale de 1.5 μm et une efficacité de détection proche de 100%. Les tests d'irradiation ont démontré une résistance aux flux de neutrons jusqu'a quelques 1012 n/cm2 et une résistance aux rayonnements ionisants jusqu'à quelques centaines kRad. Des idées futures telles que l'amplification du signal sur le pixel, le double échantillonnage ainsi que la conception d'un pixel en mode courrant ont été également présentées.

Page generated in 0.0417 seconds