• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Désambiguïsation de corpus monolingues par des approches de type Lesk

Vasilescu, Florentina January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
62

Mining dynamic databases for frequent closed itemsets

Jing, Jun January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
63

Recherche de snoRNAs de type C/D dans le génome de S.cerevisiae en corrélation avec le signal de reconnaissance à l'enzyme RNT1p

Christin, Sébastien January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
64

Réduction de dimension pour modèles graphiques probabilistes appliqués à la désambiguïsation sémantique

Boisvert, Maryse January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
65

Etude des propriétés physiques des aérosols de la moyenne et haute atmosphère à partir d'une nouvelle analyse des observations du GOMOS-ENVISAT pour la période 2002-2006 / Study of the physical properties of aerosols in the middle and high atmosphere from a new analysis of GOMOS-ENVISAT observations for the 2002-2006 period

Salazar, Veronica 13 December 2010 (has links)
L´étude des aérosols de la stratosphère est primordiale pour modéliser précisément le bilan radiatif terrestre, et pour évaluer l´influence des particules sur le cycle de destruction de l´ozone. Depuis la découverte de la couche de Junge, ce domaine de recherche connaît différents décors, du plus important contenu en aérosols du dernier siècle après l´éruption du Mont Pinatubo en 1991, à un rétablissement vers les faibles niveaux atteints dans les années 2000, qui permet l´étude des particules autres que celles d´origine volcanique. Cependant, à ce jour, le degré de connaissance est faible quant à la distribution spatiale et verticale de ces aérosols dans la moyenne et haute stratosphère. Leur détection présente plusieurs difficultés: les particules ont une grande variété d´origines, compositions, tailles et formes, et leurs faibles épaisseurs optiques rendent indispensables des résultats précis. Un algorithme d´inversion développé au LPC2E a été adapté à l´analyse des données de niveau 1b de l´instrument GOMOS à bord d´ENVISAT, qui emploie la technique d´occultation stellaire, et fournit une bonne (mais irrégulière) couverture géographique et temporelle des mesures; un critère de sélection est d´ailleurs nécessaire du fait de l´utilisation de sources lumineuses de propriétés différentes. La méthode mise au point est validée pour l´étude de l´extinction induite par les aérosols; une climatologie globale est alors établie pour la période allant d´août 2002 à juillet 2006, et indique la présence permanente de particules dans l´ensemble du globe, jusqu´à environ 45 km d´altitude. La variabilité temporelle de l´extinction montre une augmentation progressive du contenu moyen depuis 2002 aux latitudes tropicales dans la basse stratosphère, et a permis d´évaluer l´effet de l´oscillation quasi-biennale et d´étudier d´autres variations saisonnières. La dépendance spectrale permet de déduire certaines spécificités concernant la taille et la nature des aérosols, majoritairement des particules sulfatées, mais également des suies en provenance de la troposphère et des particules d´origine interplanétaire. / The study of stratospheric aerosols is crucial for modeling precisely the earth´s radiative budget and because of their influence on ozone depletion. Since the discovery of Junge layer, this area of research has been through various situations: from the greatest volcanic upload of last century after Mount Pinatubo eruption in 1991, and slowly recovering to background levels reached in the 2000s, which allow the study of other than volcanic particles. However, the vertical and spatial distribution of these aerosols in the middle and high stratosphere is still poorly documented and not yet totally understood. Their detection presents many difficulties: the particles have a great variety of origins, compositions, shapes and sizes, and their low optical thicknesses make accurate results necessary. An inversion algorithm developed in the LPC2E has been adapted to the analysis of level 1b data from GOMOS instrument onboard ENVISAT. The star occultation technique leads to a good (but irregular) spatial and temporal sampling, and a data selection criteria allows the analysis of accurate results, which validation is led for the study of aerosol extinction. A global climatology is then established for the August 2002 to July 2006 period, and shows the permanent presence of aerosol particles around the globe, up to 45 km altitude. The temporal variability shows a progressive enhancement of the mean content from 2002 in the tropics, and was useful to study the influence of the quasi-biennial oscillation in the middle stratosphere, as well as some seasonal features. The study of the spectral dependence informs about the size and nature of the particles, mainly sulfate aerosols, but also soot coming from the troposphere and aerosols of extra-terrestrial origin.
66

Méthodologie de conception sûre de fonctionnement d'un système de contrôle-commande / Dependable design methodology of a control system

Meguetta, Zine-eddine 20 July 2015 (has links)
Cette thèse s'intéresse au problème de la conception de l'architecture d'instrumentation des systèmes de contrôle-commande (C-C). La conception de telles architectures est une activité complexe qui nécessite une vision globale du système. Plus spécifiquement, elle consiste à déterminer l'ensemble des instruments utilisés (nombre et type des capteurs, des actionneurs), leur agencement vis-à-vis du système de C-C. Pour être menée à bien, cette sélection nécessite d'avoir probablement identifié les différentes possibilités quant à la conduite du processus. Ces choix sont contraints par plusieurs critères, d'une part, le coût du système et des différents composants qui se doit d'être minimal, d'autre part, la sûreté de fonctionnement qui s'évalue en termes de la fiabilité d'accomplissement de la mission et enfin par les critères de performances du système à concevoir. Ce domaine de recherche vise à unifier les différentes approches utilisées en automatique, en une méthodologie globale de conception d'architectures de C-C. Ce sujet de thèse s'intéresse à la conception de l'instrumentation d'un système de C-C. Il propose une méthode qui vise à optimiser cette instrumentation sous multicritère: le coût et le critère de sûreté de fonctionnement en fonction de la fiabilité ou le critère de qualité de commande ou le niveau de tolérance aux pannes; cette procédure de conception s'appuie sur un modèle structurel. Cette étude portera sur des systèmes C-C pour l'accomplissement de diverses missions, sans s'intéresser à la représentation interne du système (les équations d'état) mais en utilisant l'analyse structurelle du système, elle se place dès la phase de conception dans le cycle de vie du système. L'intégration de l'aspect de la sûreté de fonctionnement dans la procédure de la méthodologie de conception d'un système C-C peut apparaître ici sous la forme de l'évaluation de fiabilité d'accomplissement de la mission en se basant sur les liens (les liens structurels entre les variables physiques à commander et les instruments) des systèmes étudiés et éventuellement le conditionnement de leur conception sur la base de niveaux de performance et spécification des objectives exigés. / This thesis concerns the design of control system instrumentation architecture. The design of such architectures is a complex activity that requires a global vision of the system. More specifically, it consists to determine the set of instruments (number and type of sensors, actuators), their arrangement according the control system instrumentation. The choice of architecture constrains by main multi criteria's, on the one hand, the cost of the system and the various components that must be minimal, on the other hand, the dependability, which is evaluated in terms of the reliability of fulfillment of the mission of the design system. This field of research aims to unify the different approaches used in automatic in a global design methodology of control system instrumentation. This work proposes a method that aims to optimize the instrumentation using multiple criteria: cost criterion and dependability constraints in terms of reliability, quality of control, quality of performance, fault tolerant level. This design methodology is based on structural modeling. This study will focus on control systems to accomplish various missions without take into account the internal representation of the system (state equations). However, the tool of structural analysis is used for modeling of the system in design phase. The integration of the dependability aspect in the design methodology procedure of control system instrumentation may appear here in the form of the assessment of reliability mission based on structural links between the physical variables and instruments of the system, according to the performance levels and specifications of the required objective design.
67

Simulations and applications of large-scale k-determinantal point processes / Simulations et applications des k-processus ponctuels déterminantaux

Wehbe, Diala 03 April 2019 (has links)
Avec la croissance exponentielle de la quantité de données, l’échantillonnage est une méthode pertinente pour étudier les populations. Parfois, nous avons besoin d’échantillonner un grand nombre d’objets d’une part pour exclure la possibilité d’un manque d’informations clés et d’autre part pour générer des résultats plus précis. Le problème réside dans le fait que l’échantillonnage d’un trop grand nombre d’individus peut constituer une perte de temps.Dans cette thèse, notre objectif est de chercher à établir des ponts entre la statistique et le k-processus ponctuel déterminantal(k-DPP) qui est défini via un noyau. Nous proposons trois projets complémentaires pour l’échantillonnage de grands ensembles de données en nous basant sur les k-DPPs. Le but est de sélectionner des ensembles variés qui couvrent un ensemble d’objets beaucoup plus grand en temps polynomial. Cela peut être réalisé en construisant différentes chaînes de Markov où les k-DPPs sont les lois stationnaires.Le premier projet consiste à appliquer les processus déterminantaux à la sélection d’espèces diverses dans un ensemble d’espèces décrites par un arbre phylogénétique. En définissant le noyau du k-DPP comme un noyau d’intersection, les résultats fournissent une borne polynomiale sur le temps de mélange qui dépend de la hauteur de l’arbre phylogénétique.Le second projet vise à utiliser le k-DPP dans un problème d’échantillonnage de sommets sur un graphe connecté de grande taille. La pseudo-inverse de la matrice Laplacienne normalisée est choisie d’étudier la vitesse de convergence de la chaîne de Markov créée pour l’échantillonnage de la loi stationnaire k-DPP. Le temps de mélange résultant est borné sous certaines conditions sur les valeurs propres de la matrice Laplacienne.Le troisième sujet porte sur l’utilisation des k-DPPs dans la planification d’expérience avec comme objets d’étude plus spécifiques les hypercubes latins d’ordre n et de dimension d. La clé est de trouver un noyau positif qui préserve le contrainte de ce plan c’est-à-dire qui préserve le fait que chaque point se trouve exactement une fois dans chaque hyperplan. Ensuite, en créant une nouvelle chaîne de Markov dont le n-DPP est sa loi stationnaire, nous déterminons le nombre d’étapes nécessaires pour construire un hypercube latin d’ordre n selon le n-DPP. / With the exponentially growing amount of data, sampling remains the most relevant method to learn about populations. Sometimes, larger sample size is needed to generate more precise results and to exclude the possibility of missing key information. The problem lies in the fact that sampling large number may be a principal reason of wasting time.In this thesis, our aim is to build bridges between applications of statistics and k-Determinantal Point Process(k-DPP) which is defined through a matrix kernel. We have proposed different applications for sampling large data sets basing on k-DPP, which is a conditional DPP that models only sets of cardinality k. The goal is to select diverse sets that cover a much greater set of objects in polynomial time. This can be achieved by constructing different Markov chains which have the k-DPPs as their stationary distribution.The first application consists in sampling a subset of species in a phylogenetic tree by avoiding redundancy. By defining the k-DPP via an intersection kernel, the results provide a fast mixing sampler for k-DPP, for which a polynomial bound on the mixing time is presented and depends on the height of the phylogenetic tree.The second application aims to clarify how k-DPPs offer a powerful approach to find a diverse subset of nodes in large connected graph which authorizes getting an outline of different types of information related to the ground set. A polynomial bound on the mixing time of the proposed Markov chain is given where the kernel used here is the Moore-Penrose pseudo-inverse of the normalized Laplacian matrix. The resulting mixing time is attained under certain conditions on the eigenvalues of the Laplacian matrix. The third one purposes to use the fixed cardinality DPP in experimental designs as a tool to study a Latin Hypercube Sampling(LHS) of order n. The key is to propose a DPP kernel that establishes the negative correlations between the selected points and preserve the constraint of the design which is strictly confirmed by the occurrence of each point exactly once in each hyperplane. Then by creating a new Markov chain which has n-DPP as its stationary distribution, we determine the number of steps required to build a LHS with accordance to n-DPP.
68

OPTIMISATION DE REQUETES DANS UN SYSTEME DE RECHERCHE D'INFORMATION<br />APPROCHE BASEE SUR L'EXPLOITATION DE TECHNIQUES AVANCEES DE L'ALGORITHMIQUE GENETIQUE

Tamine, Lynda 21 December 2000 (has links) (PDF)
Les travaux présentés dans cette thèse traitent des apports de l'algorithmique génétique à la conception de systèmes de recherche d'information adaptatifs aux besoins des utilisateurs.<br>Notre étude se focalise en premier lieu, sur l'analyse des différents modèles et stratégies de représentation et de recherche d'information. Nous mettons notamment en évidence, leur contribution à la résolution des problèmes inhérents à la recherche d'information. <br>En second lieu, notre intérêt s'est porté sur l'étude des algorithmes génétiques. Nous basant alors sur leur robustesse, théoriquement et expérimentalement prouvée, nous intégrons ces algorithmes à la mise en oeuvre de notre approche d'optimisation de requête.<br>Nous présentons une approche de recherche d'information qui intègre une stratégie de reformulation de requête par injection de pertinence, fondée sur l'hybridation d'un processus d'optimisation génétique, à un modèle de recherche de base. Nous proposons un algorithme spécifique à la recherche d'information, par l'intégration d'opérateurs génétiques augmentés par la connaissance du domaine d'une part, et d'une heuristique permettant de résoudre le problème de multimodalité de la pertinence d'autre part. L'heuristique de nichage en l'occurrence, est diffusée globalement lors de l'évolution de l'AG. La population est alors organisée en niches de requêtes effectuant une recherche parallèle et coopérative d'informations.<br>Nous évaluons enfin notre approche de recherche d'information, au travers d'expérimentations réalisées à l'aide du système Mercure, sur la collection de référence TREC.
69

Modélisation et estimation de variances hétérogènes dans les modèles non linéaires mixtes

Duval, Mylene 08 December 2008 (has links) (PDF)
Les modèles non linéaires occupent une place à part dans la méthodologie des modèles mixtes. Contrairement aux modèles linéaire et linéaire généralisés qui s'apparentent souvent à des boites noires, la fonction d'ajustement des données dans le cas non linéaire provient en général de l'intégration d'une équation différentielle ce qui confère à ces modèles une dimension "explicative" beaucoup plus riche et souvent plus parcimonieuse. D'autre part, l'estimation des paramètres y est difficile du fait de l'impossibilité d'une intégration analytique des effets aléatoires. Comme dans tous les modèles mixtes notamment ceux appliqués aux données longitudinales, ils permettent bien de prendre en compte la variabilité entre et intra unités expérimentales. Mais, là comme ailleurs, le statut des résidus supposés habituellement indépendants et identiquement distribués suivant une loi normale de variance homogène reste problématique car fréquemment irréaliste. L'objet de ce travail était de présenter quelques possibilités de modélisation de ces variances résiduelles qui prennent en compte la grande hétérogénéité potentielle de celles-ci, mais dans un souci délibéré d'économie vis-à-vis du nombre de nouveaux paramètres impliqués dans ces fonctions. C'est pourquoi, en sus de la relation classique moyenne-variance, nous avons opté pour une approche paramétrique de type "modèle mixte" sur les logvariances. Nous avons choisi une méthode d'inférence classique basée sur la théorie du maximum de vraisemblance et, dans ce cadre complexe, nous avons considéré un algorithme de type EM stochastique plus précisément l'algorithme dit SAEM-MCMC. La structure de modèle mixte à la fois sur les paramètres de position et de dispersion se prête particulièrement bien à la mise en oeuvre de ces algorithmes EM. La phase MCMC, a nécessité la mise au point et le calibrage de distributions instrumentales adaptées à cette situation ainsi que la définition de critères permettant de contrôler la convergence de l'algorithme. Le tout a été validé numériquement dans le cadre linéaire et non linéaire par comparaison à des algorithmes EM analytiques quand ils existaient (cas linéaire) ou à d'autres algorithmes numériques tels ceux basés sur la quadrature de Gauss. Ces techniques ont été illustrées par l'analyse de profils de comptage de cellules somatiques de vaches laitières. Plusieurs modèles linéaire et non linéaires sont comparés et montrent clairement l'intérêt d'une modélisation mixte des variances résiduelles.
70

Extensions algébriques : cas général et cas des radicaux

Hakima, Najid-Zejli 24 June 1985 (has links) (PDF)
On considère le problème du calcul dans des extensions de Q par des nombres algébriques. Il s'agit (par diverses approches) de savoir comment l'arithmétique exacte peut être envisagée dans ces extensions. On présente l'approche classique basée sur l'élément primitif, on montre qu'elle est très coûteuse et que les résultats obtenus sont inutilisables. On voit une autre approche basée sur des factorisations dans les extensions, on montre qu'elle est meilleure que la première, cependant l'algorithme de factorisation est assez coûteuse. On aborde le cas particulier où les nombres algébriques sont loin d'être triviales mais qu'en se plaçant sur un corps de base Ko engendré sur Q par ζo = exp iπ/4 on peut surmonter toutes les difficultés. On présente l'algorithme et des exemples dans le cas de un ou de deux radicaux. La généralisation à plusieurs radicaux ne semble pas poser des difficultés supplémentaires

Page generated in 0.0508 seconds