181 |
Quelques modèles de langage statistiques et graphiques lissés avec WordNetJauvin, Christian January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
182 |
Automatisation du repérage et de l'encodage des collocations en langue de spécialitéOrliac, Brigitte January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
183 |
Étude de la traduction automatique des bulletins météorologiquesLeplus, Thomas January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
184 |
Contributions à l'analyse de survie / Contributions to survival analysisBousquet, Damien 04 October 2012 (has links)
Dans ce travail, nous présentons de nouveaux modèles pour l'analyse de survie. Nous généralisons l'approche de Marshall et Olkin (A New Method for Adding a Parameter to a Family of Distributions with Application to the Exponential and Weibull Families, Biometrika, 1997). Partant d'une distribution de probabilité de base arbitraire, nous lui ajoutons des paramètres extérieurs au sens qu'il ne s'agit pas directement de paramètres d'échelle ou de forme. Nous obtenons des courbes de risque plus riches, garanties de la souplesse de ces nouvelles distributions de probabilité. Des méthodes d'estimation de ces paramètres sont présentées. Nous montrons l'adéquation de notre modèle sur des données réelles. Dans un second temps, nous nous intéressons aussi au problème de l'estimation sans biais dans les échantillons censurés. Nous apportons des résultats nouveaux. En particulier, nous généralisons un résultat de Rubin et Van der Laan (A Doubly Robust Censoring Unbiased Transformation, The International Journal of Biostatistics, 2007). / In this work, we propose new models for survival analysis. We generalise the approach from Marshall and Olkin (A New Method for Adding a Parameter to a Family of Distributions with Application to the Exponential and Weibull Families, Biometrika, 1997). Given an arbitrary baseline probability distribution, we add some external parameters that are not scale or shape parameters. In this way, we obtain more flexible hazard rate curves. Some methods to estimate these parameters are presented. We show the goodness of fit of our model with a real data set. In a second part, we are also interesting by unbiased estimation in a censored sample. We give new results. We generalise a result from Rubin and Van der Laan (A Doubly Robust Censoring Unbiased Transformation, The International Journal of Biostatistics, 2007).
|
185 |
Les sarcophages entre Loire et Pyrénées : observations et études par des critères techniques et morphologiques / Sarcophagi between the Loire river and the Pyrénées between the 4th and the 8th century : observation, study based on technical and morphological aspectsRougé, Guillaume 30 June 2014 (has links)
Dans cet espace chronologique et géographique que constitue le territoire entre la Loire et les Pyrénées au début du haut Moyen-Âge, la diversité culturelle et politique donne lieu à une réinterprétation du contenant funéraire. Entre tradition romaine et innovation locale, la production de sarcophages connaît des évolutions diverses, contraintes entre autres par les ressources disponibles et l'outillage employé. L'objectif de ce travail a été dans un premier temps de recenser les sarcophages et d'étudier leur répartition sur le territoire évoqué. Les 1840 sarcophages répertoriés sur plus de 150 sites différents ont nécessité le développement d'une méthodologie adaptée à l'enregistrement des données et à leur analyse. C'est dans cette optique qu'une base de données fonctionnelle a été créée, pour répondre au besoin d'inventorier les mesures, l'état de conservation et un grand nombre d'observations sur les sarcophages identifiés. En parallèle, une démarche de cartographie a été entreprise pour rendre compte de la répartition géographique des différents types de sarcophages définis. Ce raisonnement comparatif fondé sur une lecture morphologique et typologique des contenants funéraires s'est enrichi d'une analyse statistique métrologique. Ces différentes approches ont permis de dresser le portrait de productions diverses, possédant des caractéristiques variées. Par ailleurs, ces données viennent alimenter des problématiques à plus grande échelle, notamment la diffusion de biens au delà de frontières géographiques peu perméables alors qu’a contrario les réseaux de distribution semblent très organisés et efficaces à l'échelle locale ou régionale. Néanmoins, il ressort que de nombreuses productions sont très certainement locales, avec une diffusion des modèles plus que des sarcophages, même si certains ont effectué de longs déplacements. Les conclusions apportées par ce travail permettent en fin de compte d'alimenter la discussion sur les nombreuses thématiques économiques et techniques à la confluence desquelles le sarcophage trouve une place centrale. / Within the framework of the chronological et typological space made of the territories between the Loire river and the Pyrénées mountain at the beginning of early Middle Ages, cultural and political diversity leads to a transformation of the funerary containers. Between roman heritage and local innovation, the sarcophagi production undergoes various evolutions, partially constrained by the available natural resources and the tools used. The main goal of this work was in a first place to take an inventory of the sarcophagi and study their dispersion on the territory mentioned. The 1840 sarcophagi identified over more than 150 archaeological sites implied developing a suitable methodology and useful tools to gather the data and permit their analysis. Therefore, a practical database was designed to fulfill the need of recording measures, preservation state and other information on the sarcophagi observed. At the same time, the different defined types of sarcophagi were depicted on maps, in order to evaluate their geographical dispersion. This comparative approach based on morphological and typological study of the funerary containers has been enhanced with statistical analyses on measures recorded. These different processes succeeded in depicting various productions with different characteristics. In addition to these characteristics, the data collected allowed to feed different topics on a larger scale, such as the diffusion of these goods beyond strong cultural frontiers. On the contrary, distribution networks appear to be well organized and very efficient on a local or regional scale. Most of the sarcophagi productions are local, and only types and ideas travel, even if some of the sarcophagi travelled over long distances. The conclusions obtained shed the light on new elements on topics such as economy and techniques, where the sarcophagus holds a central place.
|
186 |
Synthèse et caractérisation de matériaux carbonés microporeux pour le stokage de l'hydrogène / Synthesis and characterisation of microporous carbonaceous materials for hydrogen storageZhao, Weigang 09 October 2012 (has links)
Cette thèse présente la préparation, la caractérisation et l'évaluation en termes de capacité de stockage d'hydrogène de charbons actifs optimisés pour cette application. L'objectif était de développer des matériaux qui puissent atteindre ou approcher la capacité de stockage visée par le Département Américain à l'Énergie pour 2015, soit 5.5 % en masse du système de stockage. Dans ce but, les recherches rapportées ici se sont focalisées sur : (1) l'étude et la compréhension des conditions expérimentales de préparation de ces adsorbants ; (2) l'optimisation de leur texture poreuse pour le stockage d'hydrogène ; (3) l'étude des corrélations entre capacité de stockage d'hydrogène et paramètres texturaux (aire spécifique, volumes poreux et distributions de tailles de pores) ; (4) l'étude du dopage des matériaux par de l'azote et des nanoparticules métalliques. Des capacités de stockage égales à 6.6 % en masse de l'adsorbant à 77K et 4 MPa d'une part, et de 1.0 % massique à 298K et 20 MPa d'autre part, ont été obtenues dans ce travail, parmi les plus élevées qui aient été rapportées dans la littérature / This thesis describes the preparation, the characterisation and the performances in terms of hydrogen storage capacity of activated carbons designed for such application. The objective was to develop materials that might be able to meet or approach the storage capacity targeted by the US Department of Energy for 2015, i.e. 5.5 wt. % with respect to the whole storage system. With this aim in view, the researches reported here focused on: (1) investigation and understanding of experimental conditions for preparing such adsorbents; (2) optimization of their porous texture for hydrogen storage; (3) correlations between hydrogen storage capacity and textural parameters (surface area, pore volumes and pore size distributions); (4) investigation of materials doping by nitrogen and metal nanoparticles. Storage capacities of 6.6 % in weight with respect to adsorbent at 77K and 4 MPa on one hand, and of 1 wt. % at 298K and 20 MPa on the other hand, were obtained in the present thesis, among the highest reported so far in the open literature
|
187 |
La question de l’éducation statistique et de la formation de l’esprit statistique à l’école primaire en France : étude exploratoire de quelques caractéristiques de situations inductrices d’un enseignement de la statistique au cycle III / Statistical education and training of the statistical mind in primary schools in France : exploratory study of a few typical situations that would help the teaching of statistics in the third cycleCoutanson, Bernard ernest 22 June 2010 (has links)
Notre étude traite de l’enseignement de la statistique auprès des élèves du cycle III de l’école primaire, en France et plus précisément, porte sur la question de l’éducation statistique et de la formation de l’esprit statistique. Après avoir précisé les notions de fait statistique, pensée statistique et esprit statistique, nous avons analysé dans une deuxième partie, les difficultés rencontrées actuellement par cet enseignement, au travers de l’évolution des programmes scolaires de l’école primaire, des représentations des étudiants en Sciences de l’éducation, des professeurs des écoles, des élèves, ainsi que dans une perspective de continuité des contenus scolaires au fil des cycles de l’école primaire et du collège. Dans une troisième partie, nous avons observé les manuels scolaires de mathématiques des élèves du cycle III. L’ensemble fait ressortir des invariants : tendance à convertir en opérations arithmétiques des situations implicitement statistiques, pauvreté d’emploi des registres sémiotiques et des parcours sémiotiques, standardisation des formes de représentation et des tâches réclamées aux élèves, etc., mais surtout, nous avons pu établir un parallèle avec une dernière recherche portant sur les manuels de préparation au Concours de Recrutement des Professeurs des Écoles. Nous en avons conclu que c’était la perception commune, y compris celle de l’Institution scolaire, à propos de l’enseignement / apprentissage de la statistique qu’il fallait faire évoluer.Notre travail prend appui sur la théorie des situations didactiques de Guy Brousseau, sur celle des champs conceptuels et des travaux de Gérard Vergnaud traitant de la conceptualisation, sur la transposition didactique et sur l’institutionnalisation des savoirs par Yves Chevallard, sur les recherches de Jean-Claude Régnier concernant la didactique de la statistique, ainsi que sur celles de Raymond Duval portant sur le rôle des registres sémiotiques dans l’apprentissage de l’élève. / Our study is about the teaching of statistics to third cycle pupils in French primary schools, and more precisely, about the issue of statistical education and training of the statistical mind. In part I, we clarify the notions of statistical fact, statistical thinking and the statistical mind. We then analyze in part II the difficulties this teaching is currently faced with, due to the constant change of syllabus in primary schools, scrutinizing how future teachers, primary school teachers and pupils conceive statistics, aiming to reach continuity in the curricula from primary school all the way through to the end of secondary school. In part III, we dissect mathematics textbooks pupils use in the third cycle. This minute analysis highlights permanent features: tendency to convert implicitly statistical situations into arithmetical calculations; poor use of semiotic registers and semiotic learning paths; standardization of how statistics are represented and of the tasks required from the pupils and so on. Above all, we were able to draw a parallel with another of our researches exploring the textbooks that prepare school teachers for the competitive entry examination. Our conclusion is that the way the teaching and learning of statistics is generally perceived – also by the state education system - needs to be thoroughly reconsidered.Our work is supported by Guy Brousseau’s theory of didactical situations, by Gérard Vergnaud’s studies about conceptual fields and conceptualization, by Yves Chevallard’s theory of didactical transposition and institutionalization of knowledge, by Jean-Claude Régnier’s research on didactics of statistics and by Raymond Duval’s work on semiotic registers in a child’s learning.
|
188 |
Efficient rate control strategies for scalable video coding / Stratégies d'encodage pour codeur vidéo scalableBiatek, Thibaud 25 April 2016 (has links)
High Efficiency Video Coding (HEVC/H.265) est la dernière norme de compression vidéo, finalisée en Janvier 20 13. Son extension scalable, SHVC, a été publiée en Octobre 2014 et supporte la scalabilité spatiale, en gamut de couleur (CGS) et même en norme de compression (AVC vers HEVC). SHVC peut être utilisée pour l'introduction de nouveaux services, notamment grâce à la rétrocompatibilité qu'elle apporte par la couche de base (BL) et qui est complétée par une couche d'amélioration (BL+EL) qui apporte les nouveaux services. De plus, SHVC apporte des gains en débit significatifs par rapport à l'encodage dit simulcast (l'encodage HEVC séparés). SHVC est considérée par DVB pour accompagner l'introduction de services UHD et est déjà incluse dans la norme ATSC-3.0. Dans ce contexte, l'objectif de la thèse est la conception de stratégies de régulation de débit pour les codeurs HEVC/SHVC lors de l'introduction de nouveaux services UHD. Premièrement, nous avons étudié l'approche p-domaine qui modélise linéairement le nombre coefficient non-nuls dans les résidus transformés et quantifiés avec le débit, et qui permet de réaliser des régulations de débit peu complexes. Après validation du modèle, nous avons conçu un premier algorithme de contrôle de débit au niveau bloc en utilisant cette approche. Pour chaque bloc et son débit cible associé, notre méthode estime de façon précise le paramètre de quantification (QP) optimal à partir des blocs voisins, en limitant l'erreur de débit sous les 4%. Puis, nous avons proposé un modèle d'estimation déterministe du p-domaine qui évite l'utilisation de tables de correspondance et atteignant une précision d'estimation supérieure à90%. Deuxièmement, nous avons investigué l'impact du ratio de débit entre les couches d'un codeur SHVC sur ses performances de compression, pour la scalabilité spatiale, CGS et SOR vers HDR. En se basant sur les résultats de cette étude, nous avons élaborés un algorithme de régulation de débit adaptatif. La première approche proposée optimise les gains de codage en choisissant dynamiquement le ratio de débit optimal dans un intervalle prédéterminé et fixe lors de l'encodage. Cette première méthode a montré un gain de codage significatif de 4.25% par rapport à une approche à ratio fixe. Cette méthode a été ensuite améliorée en lui ajoutant des contraintes de qualité et de débit sur chaque couche, au lieu de considérer un in tervalle fixe. Ce second algorithme a été testé sur le cas de diffusion de programme HD/UHD ct de déploiement de se1vices UHDI-P1 vers UHD 1-P2 (cas d'usage DVB), où elle permet des gains de 7.51% ct 8.30% respectivement. Enfin, le multiplexage statistique de programmes scalable a été introduit et brièvement investigué. Nous avons proposé une première approche qui ajuste conjointement le débit global attribué à chaque programme ainsi que le ratio de débit, de façon à optimiser les performances de codage. De plus, la méthode proposée lisse les variations et l'homogénéité de la qualité parmi les programmes. Cette méthode a été appliquée à une base de données contenant des flux pré-encodés. La méthode permet dans ce cas une réduction du surcoût de la scalabilité de 11.01% à 7.65% comparé à l'encodage a débit et ratio fixe, tout en apportant une excellente précision et une variation de qualité limitée. / High Efficiency Video Coding (HEVC/H.265) is the latest video coding standard, finalized in Janua1y 2013 as the successor of Advanced Video Coding (AVC/H.264). Its scalable extension, called SHVC was released in October 2014 and enables spatial, bitdepth, color-gamut (CGS) and even standard scalability. SHVC is a good candidate for introducing new services thanks to backward compatibility features with legacy HEVC receivers through the base-layer (BL) stream and next generation ones through the BL+EL (enhancement layer). In addition, SHVC saves substantial bitrate with respect to simulcast coding (independent coding of layers) and is also considered by DVB for UHD introduction and included in ATSC-3 .0. In this context, the work of this thesis aims at designing efficient rate-control strategies for HEVC and its scalable extension SHVC in the context of new UHD formats introduction. First, we have investigated the p-domain approach which consists in linking the number of non-zero transfonned and quantized residual coefficients with the bitrate, in a linear way, to achieve straightforward rate-control. After validating it in the context of HEVC and SHVC codings, we have developed an innovative Coding Tree Unit (CTU)-level rate-control algorithm using the p-domain. For each CTU and its associated targeted bit rate, our method accurately estimates the most appropriate quantization parameter (QP) based on neighborhood indicators, with a bit rate error below 4%. Then, we have proposed a deterministic way of estimating the p-domain model which avoids the implementation of look-up tables. The proposed method enables accurate model estimation over 90%. Second, we have explored the impact of the bitrate ratio between layers on the SHVC performance for the spatial, CGS and SDR-to-HDR scalability. Based on statistical observations, we have built an adaptive rate control algorithms (ARC). We have first proposed an ARC scheme which optimizes coding performance by selecting the optimal ratio into a fixed ratio inte1val, under a global bitrate instruction (BL+EL). This method is adaptive and considers the content and the type of scalability. This first approach enables a coding gain of 4.25% compared to fixed-ratio encoding. Then, this method has been enhanced with quality and bandwidth constraints in each layer instead of considering a fixed interval. This second method has been tested on hybrid delivery of HD/UHD services and backward compatible SHVC encoding of UHDI -PI /UHDI -P2 services (DVB use-case) where it enables significant coding gains of 7.51% and 8.30%, respectively. Finally, the statistical multiplexing of SHVC programs has been investigated. We have proposed a first approach which adjusts both the global bit rate to allocate in each program and the ratio between BL and EL to optimize the coding performance. In addition, the proposed method smooths the quality variations and enforces the quality homogeneity between programs. This method has been applied to a database containing pre-encoded bitstreams and enables an overhead reduction from 11.01% to 7.65% compared to constant bitrate encoding, while maintaining a good accuracy and an acceptable quality variations among programs.
|
189 |
Analyse statistique de la sélection dans des banques minimalistes de protéines / Statistical analysis of selection in minimalist libraries of proteinsBoyer, Sébastien 01 October 2015 (has links)
L'évolution par sélection naturelle se compose d'une succession de trois étapes : mutations, sélection et prolifération. Nous nous intéressons à la description et à la caractérisation du résultat d'une étape de sélection dans une population composée de nombreux variants. Après sélection, cette population va être dominée par les quelques meilleurs variants, ceux qui ont la plus grande capacité à être sélectionnés, ou plus grande « sélectivité ». Nous posons la question suivante : comment est distribuée la sélectivité des meilleurs variants dans la population? La théorie des valeurs extrêmes, qui caractérise les queues extrêmes des distributions de probabilités en terme de 3 classes d'universalités, a été proposée pour répondre à cette question. Pour tester cette proposition et identifier les classes d'universalités rencontrées dans ce genre de problème, nous avons procédé à une sélection quantitative de banques composées de $10^5$ variants d'anticorps grâce à la technique du phage display. Les données obtenues par séquençage à haut débit du résultat de la sélection de nos banques nous permettent d'ajuster la distribution de sélectivités obtenue sur plus de deux décades. / Evolution by natural selection involves the succession of three steps: mutations, selection and proliferation. We are interested in describing and characterizing the result of selection over a population of many variants. After selection, this population will be dominated by the few best variants, with highest propensity to be selected, or highest “selectivity”. We ask the following question: how is the selectivity of the best variants distributed in the population? Extreme value theory, which characterizes the extreme tail of probability distributions in terms of a few universality class, has been proposed to describe it. To test this proposition and identify the relevant universality class, we performed quantitative in vitro experimental selections of libraries of > $10^5$ antibodies using the technique of phage display. Data obtained by high-throughput sequencing allows us to fit the selectivity distribution over more than two decades. In most experiments, the results show a striking power law for the selectivity distribution of the top antibodies, consistent with extreme value theory.
|
190 |
Analyse du géoïde de séparation des sources pour la compréhension de l'organisation verticale des anomalies de masse dans le manteau / Geoid analysis and blind source separation for the undrstanding of the vertical organization of mass anomalies within the mantleGrabkowiak, Alexia 21 February 2017 (has links)
Depuis le début des années 80, les progrès techniques permettent des estimations quantitatives des relations entre les structures internes de la Terre et sa forme. Des méthodes statistiques appliquées à un modèle tomographique de la Méditerranée permettent d’extraire 3 composantes qui capturent 70% de la variance des données. La première correspond à la réaction du manteau supérieur à la présence de lithosphère à 660 km, la seconde enregistre la réaction du manteau aux slabs subverticaux dans le manteau supérieur, la troisième capture les variations de vitesse sismiques du sommet des manteaux supérieur et inférieur. L’effet de ces 3 phénomènes sur le géoïde est modélisé en considérant : (i) Toutes les anomalies enregistrées par les données tomographiques constituent des sources d’anomalies. Leur effet est calculé en utilisant la gravito-visco-élasticité. Il semble que cette approche ne suffit pas à modéliser l’ensemble de la composante mantellique. (ii) les données tomographiques enregistrent les sources d’anomalies et tous les phénomènes de réajustement. En intégrant les anomalies de masses données par le modèle tomographique on obtient des structures détaillées qui surestiment la composante mantellique. (ii) Chaque composante isole des phénomènes du manteau liés à une source à laquelle est appliquée la théorie de la gravito-visco-élasticité. La composante mantellique obtenue est de longueur d'onde et amplitude compatibles avec le géoïde.La présence de calottes de lithosphère à la base de la zone de transition est susceptible d’être visible par le géoïde contrairement à la présence de slabs subverticaux dans le manteau supérieur / Progress made in seismic tomography and geodesy open the way to estimations of relations between the structures within the Earth and its shape. Applying statistical analysis to tomographic data of the mediterranean area, we extract 3 components that capture almost 70 % of the variance of the tomographic data : first one isolates the mantle reaction to lithospheric masses from the bottom of the transition zone, the second one is legated to subvertical lithsopheric slabs in the upper mantle, the third one corresponds to the tops of upper- and lower- mantle expression. Effect of these dynamics on the geoid has been modelized using considering that : (i) all the structures of the tomographic model are geoid anomaly sources, mantle component of the geoid is computed applying the gravito-visco-elasticity theory to take into account deflection of viscosity interfaces. This approach provides a smooth and low amplitude geoid mantle component. (ii) the tomographic model can register sources but also the all readjustment. Mantle component of the geoid is computed integrating anomalies of the model. It provides a detailled but too large with respect with the regional geoid mantle component. (iii) each component has capacity to isolate a phenomenon legated to a specific source of geoid anomalies. We applied gravito-visco-elastic theory specifically to it. That provides a mantle component detailled and that has a magnitude low enough with respect to the geoid.The presence of lithospheric caps on the bottom of the transition zone can be detected by the mantellic component of the geoid, but the geoid is not sensitive to subvertical slabs within the upper mantle
|
Page generated in 0.0321 seconds