• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 30
  • 10
  • Tagged with
  • 130
  • 39
  • 24
  • 24
  • 23
  • 22
  • 19
  • 16
  • 15
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Efficient estimation using the characteristic function : theory and applications with high frequency data

Kotchoni, Rachidi 05 1900 (has links)
Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique. Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini. Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité. Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences. Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse. Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique. Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité. Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma. Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity. We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process. Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency. This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis. In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α. The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk. In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models. This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology. / The attached file is created with Scientific Workplace Latex
122

Le respect de la Charte des droits fondamentaux de l'Union européenne dans l'espace judiciaire européen en matière civile et commerciale / Respect for the Charter of fundamental rights of the european Union in the european judicial area in civil and commercial matters

Pailler, Ludovic 09 November 2015 (has links)
En même temps que le traité de Lisbonne conférait valeur juridique contraignante à la charte des droits fondamentaux de l’Union européenne, il créait, par l’article 67, paragraphe 1, du traité sur le fonctionnement de l’Union européenne, une obligation pour l’Union et les États membres de respecter les droits fondamentaux dans la construction de l’espace de liberté de sécurité et de justice. Parce qu’il vise chacune des normes composant cet espace, ce commandement interroge particulièrement dans l’espace judiciaire européen en matière civile et commerciale où les règles de coordination des ordres juridiques nationaux sont partiellement réfractaires à l’influence des droits fondamentaux. La polysémie de la notion de respect permet d’envisager divers modes d’articulations de la charte et du droit de l’espace judiciaire européen en matière civile et commerciale. Si le principe hiérarchique paraît la modalité la plus évidente pour assurer le respect de la charte, il s’avère inapte à y parvenir, tant par lui-même que par le contexte spécifique d’application de la charte qu’impose l’espace judiciaire européen. Aussi conviendrait-il d’y substituer un mode d’articulation plus souple, la combinaison, afin de conformer la construction de l’espace sous étude à l’article 67, paragraphe 1, du traité sur le fonctionnement de l’Union européenne. / When the treaty of Lisbon gave Charter of Fundamental Rights of the European Union its legally binding force, it gave rise, in article 67, paragraph 1, of the Treaty on the Functionning of the European Union, to a legal obligation to respect fundamental rights while building the Freedom, Security and Justice Area. As this legal obligation concerns all the rules of this space, it raises questions in the European Judicial Area in civil and commercial matter where rules coordinating national legal systems are partially resistant to the influence of fundamental rights. Polysemy of the notion of respect make it possible to consider different ways for the Charter and the European Judicial Area law to interact. If the hierarchical principle seems to be the most obvious way to ensure the respect of the Charter, it transpires to be inappropriate by itself and because of the specific context fort the application of the Charter commanded by the European Judicial Area. So, it would be more convenient to substitue the hierarchical principle with a more supple way of interaction, the combination, so as to conform the studied space to the article 67, paragraph 1, of the Treaty on the Functionning of the European Union.
123

Spécificités de l'implant électro-acoustique : indications, interface bioélectrique et stratégie de codage / Specificities of electric-acoustic stimulation : indications, bioelectrical interface and coding strategy

Seldran, Fabien 19 December 2011 (has links)
Le clinicien se trouve parfois confronté à des sujets qui présentent une surdité supérieure à 90 dB HL au-delà de 1 kHz avec une audition résiduelle dans les fréquences graves. Pour réhabiliter les hautes fréquences, il existe aujourd’hui différentes technologies : amplification conventionnelle, compression fréquentielle, implant cochléaire et depuis une dizaine d’année la stimulation électro-acoustique EAS qui consiste à stimuler acoustiquement les sons graves et électriquement les sons aigus via un implant cochléaire. La première partie de cette thèse a consisté à identifier les facteurs qui influencent les capacités des patients sourds partiels à traiter l’information basse fréquence de la parole. Nous avons utilisé un test d’audiométrie vocale filtrée passe-bas. Nos résultats indiquent que les scores d’intelligibilité de la parole sont positivement corrélés avec la durée de la surdité. Ceci signifie qu’avec le temps, ces sujets malentendants apprennent à comprendre avec cette audition type filtre passe-bas, à tel point que certains ont des performances supra-normales pour l’utilisation des basses fréquences. Nos résultats montrent également une corrélation négative entre l’âge d’apparition de la surdité et les scores l’intelligibilité. Ce test pourra aider le clinicien à mieux cibler l’appareillage le plus adapté à chaque profil de patient. La seconde partie de cette thèse, consacrée à l’EAS, a consisté à évaluer par des simulations chez le normo-entendant, diverses stratégies de codage du son par l’implant EAS. Actuellement, la stratégie utilisée pour l’EAS est calquée sur celle de l’implant cochléaire et nos résultats suggèrent que cette stratégie peut être optimisée. / Clinicians may face patients who have a deafness superior to 90 dB HL above 1 kHz with good lowfrequency residual hearing. Today, several technologies are available to provide high frequencies: conventional amplification, frequency compression, cochlear implant since about 10 years Electric-Acoustic Stimulation EAS which consists in stimulating acoustically low frequencies while stimulating electrically high frequency sounds via a cochlear implant. The firt part of this dissertation consisted in identifying the factors which may influence abilities of partially deaf subjects to process low-frequency speech information. We used a low-pass filtered speech test. Our results show that speech intelligibility scores are positively correlated to the duration of deafness. This means that these hearing-impaired subjects learn to understand with this lowpass-like hearing, in such a way that some of them exhibit supranormal abilities for the processing of low-frequency sounds. Our results also show a negative correlation between the age at onset of deafness and speech intelligibility scores. This test may help the clinician to better evaluate which device would be best for every patient’s profile. The second part of this dissertation, about EAS, consisted in evaluating through simulations in normal hearing listeners, several coding strategies by the EAS implant. Now the strategy used for EAS duplicates the strategy used by cochlear implants and our results suggest that this strategy could be optimized.
124

Inhibiteurs de PARP : leur rôle potentiel en monothérapie et en combinaison en cancer du sein triple-négatif

Beniey, Michèle 12 1900 (has links)
Quatorze femmes canadiennes meurent chaque jour du cancer du sein. Le cancer du sein triple-négatif (CSTN) détient un mauvais pronostic De nombreux efforts sont fournis afin d'offrir à ces patientes des traitements ciblés, comme les inhibiteurs de poly (adenosine diphosphate-ribose) polymerase inhibitors (PARPi) afin d’améliorer leur survie et de minimiser la toxicité liée à la chimiothérapie. Le sous-groupe de CSTN qui pourrait bénéficier des PARPi reste à être identifié. De plus, différentes stratégies d'administration des PARPi et de la chimiothérapie pourraient améliorer leur efficacité thérapeutique tout en diminuant la toxicité. Nous avons précédemment dérivé une signature génétique de 63 gènes prédisant la réponse aux PARPi avec une précision globale élevée. Nos objectifs sont 1) d'évaluer les implications cliniques de la signature génétique; et 2) de déterminer la séquence optimale d'administration du talazoparib et du carboplatin in vivo en cancer du sein triple-négatif BRCAWT. D'abord, nous avons évalué la fréquence mutationnelle des 63 gènes dans différents contextes cliniques. Deux bases de données publiques furent utilisées. Puis, nous avons comparé trois cohortes de xénogreffes orthotopiques: A) talazoparib en premier, combiné au carboplatin le jour 3; carboplatin en premier suivi du talazoparib B) un jour après; et C) sept jours après. La fréquence mutationnelle des 63 gènes était élevée chez les tumeurs luminales B et celles de mauvais pronostic. Les patientes luminales B mutées avaient une moindre survie que les patientes non mutées. Aussi, l'inhibition tumorale et métastatique était similaire pour les cohortes A et B, cependant la cohorte B avait moins de toxicité. Les PARPi pourraient avoir un rôle chez les tumeurs luminales B et celles de mauvais pronostic. Deuxièmement, le prétraitement avec le carboplatin semble améliorer la sensibilité au talazoparib et diminuer la toxicité. / Fourteen Canadian women die every day from breast cancer. Triple-negative breast cancer (TNBC) has a poor prognosis. Numerous efforts are made to offer these patients targeted therapies such as poly (adenosine diphosphate-ribose) polymerase inhibitors (PARPi) to improve survival and minimize chemotherapy-related toxicity. It is not well understood which subset of TNBC patients will benefit from PARPi; and if different sequencing strategies of PARPi and chemotherapy can improve therapeutic efficacy and decrease toxicity. We previously derived a 63-gene signature predicting response to PARPi with a high overall accuracy. Our objectives are 1) to evaluate the clinical implications of the 63-gene signature; and 2) to determine the optimal sequence of administration of talazoparib and carboplatin in vivo in BRCAWT TNBC. First, we evaluated the mutational frequency of the 63 genes in different clinical settings using two publically-available datatsets. Second, we compared three cohorts of orthotopic xenografts: A) talazoparib first, combined with carboplatin on day 3; carboplatin first, followed by talazoparib B) one day later; and C) seven days later. We found that the mutational frequency was high in breast cancer subtypes of poor prognosis. Mutated luminal B patients had a lower survival than non-mutated patients. We also found that tumoral and metastatic inhibition were similar between cohorts A and B, but cohort B had less toxicity. In conclusion, there is potential for PARPi efficacy in luminal B and poor prognosis tumors. Second, pretreatment with carboplatin may be an effective approach with less toxicity.
125

Modèle d'agrégation des avis des experts, en fiabilité d'équipements

Handi, Youssef January 2021 (has links) (PDF)
No description available.
126

Fusion pour la séparation de sources audio / Fusion for audio source separation

Jaureguiberry, Xabier 16 June 2015 (has links)
La séparation aveugle de sources audio dans le cas sous-déterminé est un problème mathématique complexe dont il est aujourd'hui possible d'obtenir une solution satisfaisante, à condition de sélectionner la méthode la plus adaptée au problème posé et de savoir paramétrer celle-ci soigneusement. Afin d'automatiser cette étape de sélection déterminante, nous proposons dans cette thèse de recourir au principe de fusion. L'idée est simple : il s'agit, pour un problème donné, de sélectionner plusieurs méthodes de résolution plutôt qu'une seule et de les combiner afin d'en améliorer la solution. Pour cela, nous introduisons un cadre général de fusion qui consiste à formuler l'estimée d'une source comme la combinaison de plusieurs estimées de cette même source données par différents algorithmes de séparation, chaque estimée étant pondérée par un coefficient de fusion. Ces coefficients peuvent notamment être appris sur un ensemble d'apprentissage représentatif du problème posé par minimisation d'une fonction de coût liée à l'objectif de séparation. Pour aller plus loin, nous proposons également deux approches permettant d'adapter les coefficients de fusion au signal à séparer. La première formule la fusion dans un cadre bayésien, à la manière du moyennage bayésien de modèles. La deuxième exploite les réseaux de neurones profonds afin de déterminer des coefficients de fusion variant en temps. Toutes ces approches ont été évaluées sur deux corpus distincts : l'un dédié au rehaussement de la parole, l'autre dédié à l'extraction de voix chantée. Quelle que soit l'approche considérée, nos résultats montrent l'intérêt systématique de la fusion par rapport à la simple sélection, la fusion adaptative par réseau de neurones se révélant être la plus performante. / Underdetermined blind source separation is a complex mathematical problem that can be satisfyingly resolved for some practical applications, providing that the right separation method has been selected and carefully tuned. In order to automate this selection process, we propose in this thesis to resort to the principle of fusion which has been widely used in the related field of classification yet is still marginally exploited in source separation. Fusion consists in combining several methods to solve a given problem instead of selecting a unique one. To do so, we introduce a general fusion framework in which a source estimate is expressed as a linear combination of estimates of this same source given by different separation algorithms, each source estimate being weighted by a fusion coefficient. For a given task, fusion coefficients can then be learned on a representative training dataset by minimizing a cost function related to the separation objective. To go further, we also propose two ways to adapt the fusion coefficients to the mixture to be separated. The first one expresses the fusion of several non-negative matrix factorization (NMF) models in a Bayesian fashion similar to Bayesian model averaging. The second one aims at learning time-varying fusion coefficients thanks to deep neural networks. All proposed methods have been evaluated on two distinct corpora. The first one is dedicated to speech enhancement while the other deals with singing voice extraction. Experimental results show that fusion always outperform simple selection in all considered cases, best results being obtained by adaptive time-varying fusion with neural networks.
127

Caractérisation des activités épigénétiques et anticancéreuses de la proscillaridine A dans les cancers pédiatriques

Da Costa, Elodie 11 1900 (has links)
Les glycosides cardiotoniques sont des inhibiteurs des pompes sodium / potassium utilisés pour le traitements des insuffisances cardiaques, qui détiennent également des activités anticancéreuses et épigénétiques récemment caractérisées. Toutefois, dans l’objectif de repositionner ces médicaments comme traitement anticancéreux, les mécanismes sousjacents aux activités anticancéreuses et épigénétiques des glycosides cardiotoniques restent à être déterminés. Dans nos travaux, nous révélons que la proscillaridine A est le glycoside cardiotonique qui détient des activités anticancéreuses et épigénétiques les plus puissantes dans des lignées de cancer du côlon, de leucémies et de sarcomes pédiatrique. De plus, nous avons identifié que l’activité anticancéreuse de la proscillaridine A corrèle positivement avec le niveau d’expression protéique du proto-oncogène MYC dans un panel de 14 lignées cellulaires cancéreuses. Dans les lignées cellulaires exprimants un haut niveau de MYC telles que les lignées leucémiques, la proscillaridine A agit comme un inhibiteur de MYC et module sa stabilité protéique ainsi que la régulation transcriptionnelle et translationnelle de ces cibles. Cette inhibition est induite par la baisse significative de l’expression des enzymes épigénétiques les lysines acétyltransférases (KATs), qui contrôlent l’ajout des résidus d’acétylcoenzyme A sur les histones et sur d'autres protéines dont MYC. La baisse d’expression des KATs résultent à une baisse de l’acétylation des résidus de l’histone 3 et à une reprogrammation de l’acétylome des cellules cancéreuses surexprimant MYC. Ces changements au niveau de la chromatine induisent une reprogrammation transcriptionnelle et phénotypique des cellules surexprimant MYC, qui se traduit par une perte de la transcription des programmes oncogéniques et l’induction des programmes associés à la différenciation cellulaire. Pour finir, nous avons évalué le potentiel synergique anticancéreux et épigénétique de la proscillaridine A avec le médicament épigénétique la décitabine dans des lignées cancéreuses exprimants des niveaux différentiels de MYC. Dans une lignée résistante à la proscillaridine A et exprimant de faible niveau de MYC (lignée de cancer de côlon), la décitabine et la proscillaridine A démontrent des activités épigénétiques synergiques tandis que dans une lignée sensible à la proscillaridine A et surexprimant MYC (lignée de sarcome pédiatrique), la décitabine et la proscillaridine A démontrent des activités antiprolifératives synergiques. Dans ces travaux, nous avons donc démontré le potentiel de repositionner la proscillaridine A dans les cancers surexprimant MYC. Également, nous démontrons le potentiel synergique anticancéreux et épigénétique de la proscillaridine A avec la décitabine et nous suggérons d’étudier cette combinaison de médicaments dans les cancers plus résistants à la proscillaridine A. / Cardiac glycosides are sodium/potassium pomps’ inhibitors used for the treatment of heart failure, and whose anticancer and epigenetic activities have been recently characterized. However, in order to repurpose cardiac glycosides as anticancer drugs, mechanistic studies are required to identify the anticancer and epigenetic mechanism of actions. In our experiments, proscillaridin A exhibited the most powerful anticancer and epigenetic activities in colon cancer, leukemia, and sarcoma cell lines. Moreover, we demonstrated that in a panel of 14 cancer cell lines, proscillaridin A anticancer activities positively correlated with MYC protooncogene expression level. In high MYC expressing cell lines such as leukemia, proscillaridin A inhibited MYC expression through protein destabilization and through transcriptomic and translational regulation of MYC targets. Theses inhibitions are induced by the loss of lysine acetylatransferase (KAT) expressions, which are epigenetic enzymes controlling the addition of acetyl-coenzyme A on histones and other proteins such as MYC. KAT inhibitions are responsible for the global loss of histone 3 acetylation and acetylome reprogrammation in high MYC expressing cancer cells. These chromatin changes induced transcriptomic and phenotypic reprogrammation, defined by a loss of the transcription of oncogenic programs and the induction of cell differentiation. To finish, we evaluated the anticancer and epigenetic synergic potential of proscillaridin A in combination with the epigenetic drug the decitabine in cancer cell lines expressing different MYC levels. In a cancer cell line resistant to proscillaridin A treatments and expressing low MYC level (colon cancer cell line), the combination of decitabine and proscillaridin A demonstrated synergistic epigenetic activity although, in a cell line sensitive to proscillaridin A treatments and expressing high MYC level (sarcoma cell line), the combination of decitabine and proscillaridin A exhibited synergistic anti-proliferative activity. To conclude, we highlighted the potential of repurposing proscillaridin A as an anticancer treatment in high MYC expressing cells. Furthermore, we demonstrated the anticancer and epigenetic synergistic potential of proscillaridin A in combination with decitabine and we propose to study the drug combination in cancers that are resistant to proscillaridin A treatment.
128

Description du lexique spécialisé chinois et constitution d'une ressource didactique adaptée pour locuteurs non sinophones

Han, Zhiwei 10 1900 (has links)
L’enseignement-apprentissage du lexique spécialisé chinois est un chemin semé d’obstacles. Pour les apprenants non natifs, les combinaisons lexicales spécialisées (CLS) (L’Homme, 2000) soulèvent des difficultés syntaxico sémantiques et représentent ainsi un défi majeur dans l’acquisition de compétences lexicales. On recense, toutefois, peu de propositions méthodologiques pour résoudre ces difficultés dans la littérature consacrée à la didactique du chinois sur objectifs spécifiques (COS) (Q. Li, 2011). Dans cette recherche, nous nous attachons à explorer de quelle manière une méthode de description lexicale basée sur une représentation sémantique et syntaxique assiste les apprenants non natifs dans la résolution des problèmes lexicaux soulevés par les CLS. Notre thèse vise à concevoir une méthode de description des CLS en vue de la résolution de difficultés lexicales par les locuteurs non sinophones. La méthode mise au point est appliquée à l’élaboration du dictionnaire CHINOINFO, une ressource lexicale chinois-français portant sur le domaine de l’informatique. Cette ressource s’adresse aux apprenants francophones du chinois. L’objectif secondaire de notre thèse consiste à évaluer l’efficacité du CHINOINFO auprès des apprenants francophones qui reçoivent une formation de chinois dans un établissement universitaire au Québec ou en Chine. Notre recherche fait appel à des notions empruntées à trois cadres théoriques. Premièrement, la Lexicologie explicative et combinatoire (Mel’čuk et al., 1995) nous sert d’appui théorique pour fonder la description des CLS sur la représentation sémantique du lexique spécialisé. Deuxièmement, notre démarche de collecte et d’analyse des CLS est guidée par l’approche lexico sémantique à la terminologie (L’Homme, 2020a). Enfin, nous nous appuyons sur l’approche cognitive en didactique des langues secondes (Chastain, 1990) pour envisager une présentation structurée des connaissances lexicales. Notre démarche méthodologique s’est déroulée en trois phases. Nous avons d’abord assemblé un corpus spécialisé chinois pour en extraire un échantillon de CLS et les renseignements permettant de les décrire. L’analyse des données collectées à partir du corpus nous a amenée à anticiper trois types de difficultés syntaxico-sémantiques soulevées par les CLS : 1) distinguer les acceptions d’un polysème dans différentes CLS; 2) différencier les sens distincts de CLS de forme identique; 3) choisir les cooccurrents appropriés d’un terme. À la deuxième phase, nous avons mobilisé différentes stratégies pour décrire les propriétés syntaxico-sémantiques des CLS. Une méthode descriptive intégrant les solutions proposées a ensuite été appliquée à la création du CHINOINFO. Cette ressource en ligne répertorie 91 termes fondamentaux du domaine de l’informatique, pour lesquels nous avons encodé au total 282 termes reliés et 644 CLS. La structuration des données au sein des articles s’est largement inspirée de l’adaptation du DiCoInfo (Observatoire de linguistique Sens-Texte, 2022) à un dictionnaire d’apprentissage (Alipour, 2014). Différents moyens techniques ont été mis en œuvre pour assurer la convivialité de la ressource. La dernière phase de notre recherche consiste en une expérimentation comparative visant à évaluer l’efficacité pédagogique du CHINOINFO. Nous avons fait passer un test lexical à deux groupes d’apprenants francophones, soit le groupe contrôle (GC) et le groupe expérimental (GE), en leur proposant un nombre d’outils de référence. Seul le GE a eu accès à CHINOINFO. Nous avons aussi collecté, au moyen de questionnaires de sondage, le profil des participants ainsi que leur appréciation sur le test et les outils de référence proposés. De manière générale, l’analyse comparative des résultats du test lexical montre que le GE a mieux réussi à résoudre les trois types de difficultés soulevées par les CLS. Les participants étaient plutôt satisfaits de l’organisation du test. Le GE a eu moins de difficultés à réaliser le test puisqu’il se sentait mieux outillé pour trouver des éléments de réponses aux questions du test par rapport GC. Le GE s’est exprimé favorablement quant à l’utilité du CHINOINFO pour résoudre les problèmes lexicaux dans le cadre de notre expérimentation. Pour conclure, les résultats de notre analyse fournissent des indices sur l’apport du CHINOINFO en tant qu’une ressource d’apprentissage des CLS, ce qui laisse entrevoir l’intérêt de la méthode de description lexicale que nous avons proposée dans un contexte pédagogique. / The teaching and learning of Chinese specialized lexicon is a path strewn with obstacles. For non-native learners, specialized lexical combinations (SLCs) (L’Homme, 2000) raise syntactic and semantic difficulties and thus represent a major challenge in the acquisition of lexical skills. However, there are few methodological proposals to solve these difficulties in the literature devoted to the teaching practice and applied research of Chinese for specific purposes (Q. Li, 2011). In this research, we explore how a lexical description method based on semantic and syntactic representation assists non-native learners in solving lexical problems raised by SLCs. This thesis aims at designing a method for describing SLCs to help non-Chinese speakers solve lexical difficulties. The proposed method is applied to develop CHINOINFO, a Chinese-French dictionary of computer science and information technology terms. This lexical resource is designed for French-speaking learners of Chinese and can also be used as a writing tool for language professionals (translators, technical writers, and proofreaders), as well as professionals in this field. The secondary objective of this thesis is to evaluate the pedagogical effectiveness of the developed resource among French-speaking university students. This research draws on concepts derived from three theoretical frameworks. Firstly, the Explanatory and Combinatorial Lexicology (Mel’čuk et al., 1995) provides theoretical support for founding the lexical description on the representation of semantic features of the specialized lexicon. Secondly, the collection and analysis of SLCs are guided by the lexical-semantic approach to terminology (L’Homme, 2020a). Finally, we draw on the cognitive approach to second language didactics (Chastain, 1990) to explore the effective ways to organize and present the descriptive information of the specialized lexicon. Our methodological approach was carried out in three stages. We started by assembling a specialized Chinese corpus to extract a sample of SLCs and their descriptive information. The analysis of the data collected from the corpus led us to anticipate three types of syntaxico-semantic difficulties raised by SLCs: 1) distinguishing polysemes in different SLCs; 2) identifying, in a given context, the meaning of a lexical combination that is syntactically ambiguous; and 3) selecting appropriate co-occurrents for a term. In the second stage, we deployed different strategies to describe the syntaxico-semantic features of SLCs. Subsequently, a descriptive method that incorporates the proposed solutions has been applied to the creation of CHINOINFO. This online lexical resource contains 91 basic terms related to computer science and information technology. For these terms, we encoded a total of 282 related terms and 644 SLCs. The organization of content in the entries has been largely inspired by the conversion of DiCoInfo (Observatoire de linguistique Sens-Texte, 2022) into a learner’s dictionary (Alipour, 2014). We used various techniques to make the resource user-friendly. The final stage of our research consists of a comparative experiment to evaluate the pedagogical effectiveness of CHINOINFO. We had two groups of French-speaking learners, the control group (CG) and the experimental group (EG), take a lexical test by providing them with several reference materials. Only the EG had access to CHINOINFO during the test. We also collected the information about the participants' learning profile and their appreciation of the test and the proposed reference materials. Overall, the comparative analysis of the test results shows that the GE succeeded better in solving the three types of difficulties raised by the SLCs. The participants were quite satisfied with the organization of the lexical test. The EG encountered less difficulty in answering questions during the test since they felt better equipped to find elements of answers in the reference materials than the GC. The EG commented favorably on the utility of CHINOINFO in solving lexical problems. To conclude, the results of our experiment provide clues about the pedagogical interest of CHINOINFO as a SLC learning resource, which suggests the relevance of the lexical description method we proposed in a pedagogical context.
129

Vers des communications de confiance et sécurisées dans un environnement véhiculaire / Towards trusted and secure communications in a vehicular environment

Tan, Heng Chuan 13 September 2017 (has links)
Le routage et la gestion des clés sont les plus grands défis dans les réseaux de véhicules. Un comportement de routage inapproprié peut affecter l’efficacité des communications et affecter la livraison des applications liées à la sécurité. D’autre part, la gestion des clés, en particulier en raison de l’utilisation de la gestion des certificats PKI, peut entraîner une latence élevée, ce qui peut ne pas convenir à de nombreuses applications critiques. Pour cette raison, nous proposons deux modèles de confiance pour aider le protocole de routage à sélectionner un chemin de bout en bout sécurisé pour le transfert. Le premier modèle se concentre sur la détection de noeuds égoïstes, y compris les attaques basées sur la réputation, conçues pour compromettre la «vraie» réputation d’un noeud. Le second modèle est destiné à détecter les redirecteurs qui modifient le contenu d’un paquet avant la retransmission. Dans la gestion des clés, nous avons développé un système de gestion des clés d’authentification et de sécurité (SA-KMP) qui utilise une cryptographie symétrique pour protéger la communication, y compris l’élimination des certificats pendant la communication pour réduire les retards liés à l’infrastructure PKI. / Routing and key management are the biggest challenges in vehicular networks. Inappropriate routing behaviour may affect the effectiveness of communications and affect the delivery of safety-related applications. On the other hand, key management, especially due to the use of PKI certificate management, can lead to high latency, which may not be suitable for many time-critical applications. For this reason, we propose two trust models to assist the routing protocol in selecting a secure end-to-end path for forwarding. The first model focusses on detecting selfish nodes, including reputation-based attacks, designed to compromise the “true” reputation of a node. The second model is intended to detect forwarders that modify the contents of a packet before retransmission. In key management, we have developed a Secure and Authentication Key Management Protocol (SA-KMP) scheme that uses symmetric cryptography to protect communication, including eliminating certificates during communication to reduce PKI-related delays.
130

Un modèle de prise de décision basé sur la performace des procesus métiers collaboratifs / Dynamic decision model based on the performance of collaborative business processes

Hachicha, Maroua 03 April 2017 (has links)
Cette thèse se focalise sur l’amélioration de l’évaluation de performance des processus métiers collaboratifs. Il s’agit de poursuivre l’évolution de la collaboration entre l’entreprise et ses partenaires. Trois niveaux d’abstraction ont été d’abord identifiés : Métier, fonctionnel et applicatif. Ensuite, nous avons développé une approche descendante allant du niveau métier au niveau applicatif. Dans le niveau métier, des différents d’indicateurs clés de performance ont été proposés à travers la méthodeECOGRAI. Dans le niveau applicatif, nous avons proposé un référentiel d’analyse contenant des indicateurs techniques fonctionnels tels que la durée, l’input, l’output, et non-fonctionnels notamment la maturité, le risque, l’interopérabilité à partir des traces d’exécution. Nous avons proposé ainsi un modèle ontologique en vue de capitaliser et enrichir la sémantique de la performance de ces processus. Nous avons proposé un modèle ascendant pour l’agrégation des indicateurs technique au niveaumétier. Le principal objectif de cette agrégation est la corrélation entre le comportement de l’application métier agrégé à partir de l’exécution et l’évolution des indicateurs métiers. Un autre modèle de gestion des événements métiers a été également proposé pour consolider le processus d’apprentissage de notre approche. Par ailleurs, pour assurer la convergence de la performance, nous avons combiné entre la gestion des traces et la gestion des évènements métiers. Cette combinaison permet d’accompagner l’évolution des processus métiers collaboratifs pendant leur exécution. L’accompagnement évoqué avant favorise l’obtention d’un diagnostic sur la performance pour servir à la prise de décision. Cette dernière est liée étroitement à la détection des alertes et particulièrement à l’anticipation des déviations de la performance le plus rapidement possible. Pour valider lacontribution scientifique de cette thèse, une étude de cas a été réalisée sur un processus de création de devis dans le cadre du projet européen FITMAN. / This thesis focuses on improving the performance evaluation of collaborative business processes. It is about pursuing the evolution of the collaboration between the company and its partners. In the beginning, three abstraction levels were identified: Business, functional and application. Then, we developed a top-down approach from the business level to the application level. In the business level, different key performance indicators have been proposed through the ECOGRAI method. In the application level, we proposed an analytical repository containing functional technical indicators such as duration, input, output, and non-functional, including maturity, risk, and interoperability based on execution traces. We have thus proposed an ontological model in order to capitalize and enrich the semantics of the performance of these processes. We proposed a bottom-up model for the aggregation of technical indicators at the business level. The main objective of this aggregation is the correlation between the behavior of the aggregated business application from the execution and the evolution of the business indicators. Another business event management model was also proposed to consolidate the learning process of our approach. Moreover, to ensure the convergence of performance, we have combined traces management and business event management. This combination allows to accompany the evolution of the collaborative business processes during their execution. The aforementionedaccompaniment favors the obtaining of a diagnosis on performance to be used for decision-making. The latter is closely linked to the detection of alerts and particularly to the anticipation of deviations in performance as quickly as possible. To validate the scientific contribution of this thesis, a case study was carried out on a process of creation of quote within the framework of the European project FITMAN.

Page generated in 0.3558 seconds