• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 500
  • 220
  • 97
  • 4
  • 3
  • 1
  • Tagged with
  • 822
  • 342
  • 198
  • 124
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 87
  • 83
  • 79
  • 75
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Les femmes délinquantes à Madrid /

Bénavidès, Christine. January 2001 (has links)
Texte remanié de: Th. doct.--Études ibériques--Aix-Marseille 1, 1998. / Notice réd. d'après la couv. Bibliogr. p. 237-246.
12

HACCP et performance dans les PME agroalimentaires

Arnaud Fabrice, Goue 06 1900 (has links) (PDF)
Cette présente thèse porte sur l’impact de l’HACCP sur les performances industrielles et commerciales dans les PME Agroalimentaires. En effet, Les PME agroalimentaires font face de plus en plus à de nombreux défis, qui sont entre autres, les exigences de sécurité sanitaire des aliments, la satisfaction des attentes du client et le déséquilibre de force avec les grandes compagnies du secteur. Il s’agit dans cette thèse, d’une part de mettre en évidence la contribution significative du système HACCP sur les performances en termes de sécurité sanitaire des aliments, de satisfaction des attentes du client, et d’accès aux marchés (local et à l’export) dans les PME Agroalimentaires. Et d’autres parts, de faire des recommandations afin de maximiser l’efficacité du système HACCP dans les PME Agroalimentaires. C’est une étude utilisant une approche empirique avec comme population d’étude les PME Agroalimentaires du Québec issues de la banque d’information industrielle du centre de recherche industrielle du Québec (CRIQ). Les résultats du test de Khi2 Pearson révèlent que le système HACCP a un impact significatif sur la sécurité sanitaire des aliments d’une part et sur la satisfaction client d’autre part dans les PME agroalimentaires. Par ailleurs, on observe à travers les résultats du test d’ANOVA que le système HACCP a un impact significatif sur le niveau d’accès aux marchés extérieurs (hors Canada). De plus, on observe à l’issue du test de khi2 Pearson, que le système HACCP a une influence significative sur l’accès au marché Européen. This thesis deals with the impact of HACCP on industrial and commercial performance in SME Agri-foods. Agri-food SMEs are increasingly facing many challenges, including food safety requirements, meeting customer expectations and strength imbalance with large companies in the sector. The aim of this thesis is to highlight the significant contribution of the HACCP system to the performance in terms of food safety, customer satisfaction and access to markets (local and Export) in SMEs Agri-foodstuffs. And on the other hand, to make recommendations to maximize the effectiveness of the HACCP system in SMEs Agribusiness. It is a study using an empirical approach with as a study population the SME Agri-food of Quebec from the industrial information bank of the industrial research center of Quebec (CRIQ). The results of the Khi2 Pearson test reveal that the HACCP system has a significant impact on food safety on the one hand and on customer satisfaction on the other hand in agro-food SMEs. In addition, the results of the ANOVA test show that the HACCP system has a significant impact on the level of access to foreign markets (outside Canada). Furthermore, after the Pearson chi-square test, the HACCP system has a significant influence on access to the European market.
13

Nouveau cadre statistique pour la cartographie-fine

Accrachi, El Hadji Ousseynou 11 February 2021 (has links)
Des études d’association à l’échelle du génome (GWAS) ont permis l’identification de milliers de régions du génome comportant des variants génétiques associés à des traits et qui peuvent être à l’origine de certaines maladies complexes. Cependant faire des tests biologiques pour tous les variants génétiques découverts à l’aide de GWAS est pratiquement impossible. Ainsi, les études de cartographie-fine visent à déterminer un ensemble cible de variants génétiques susceptibles d’être associés à un trait d’intérêt. Les principales difficultés pour les méthodes statistiques pour la cartographie-fine sont la présence de milliers de variants génétiques pour seulement une centaine d’individus et la présence d’une forte structure de corrélation, ou déséquilibre de liaison (LD) entre les variants génétiques. Il existe de nombreuses contributions dans les études de cartographie-fine notamment CAVIAR [19], CAVIAR-Gene [30], PAINTOR [28], fastPAINTOR [27] etc. Ces études se basent sur des méthodes statistiques de sélection d’un ensemble crédible de variants génétiques pour aider à prioriser les variants et à discerner les conséquences fonctionnelles du risque de maladies des variants sélectionnés. Dans ce mémoire, nous proposons un nouveau cadre statistique avec une procédure de sélection de variants génétiques (SNPs). Nous utilisons une méthode conditionnelle ou bayésienne pour identifier les SNPs susceptibles d’être causaux. Ainsi la statistique d’association d’un SNP est réécrite et sa loi asymptotique est déterminée. Notre procédure de sélection est itérative et grâce à une loi a priori, elle calcule les probabilités a posteriori pour qu’un SNP soit significatif pour le trait d’intérêt. À chaque étape les statistiques d’association des SNPs sont calculées et le SNP avec la plus forte probabilité a posteriori est choisi. Dans nos simulations, nous montrons que la correction sur la loi asymptotique de la statistique d’association apporte une amélioration significative dans la sélection des SNPs qui ont un lien avec le trait d’intérêt
14

Comparaison de la puissance statistique et de la valeur entre les stratégies adaptatives de traitement et les stratégies partiellement adaptatives de traitement

Magassouba, Mamady 22 July 2022 (has links)
La médecine personnalisée est un domaine en pleine croissance, qui met l'accent sur l'utilisation de l'historique des informations individuelles des patients afin d'optimiser des stratégies de traitement adaptées à chaque patient ou groupe de patients ayant les mêmes caractéristiques. Plusieurs méthodes d'estimation dites de stratégies de traitement adaptatives (ATS) existent, telles que les méthodes Q-learning, DWOLS et G-estimation. Ces méthodes nécessitent des interactions entre toutes les caractéristiques pertinentes des patients et le traitement pour produire des estimations non biaisées. En pratique, il n'est pas toujours désirable d'établir des règles de décisions adaptatives dépendant de plusieurs variables. De nouvelles méthodes d'estimation plus réalistes, appelées méthodes de stratégies de traitement partiellement adaptatives (PATS) ont été conçues, par exemple la méthode CE-DWOLS. Elles permettent de personnaliser les décisions de traitements à l'aide d'un sous-ensemble de caractéristiques des patients. Notre objectif est de savoir s'il y a un intérêt statistique à utiliser les PATS. Pour cela, nous comparons la puissance statistique et la valeur entre les méthodes Q-learning et DWOLS des ATS et la méthode CE-DWOLS des PATS. Plus précisément, des études de simulations ont été effectuées considérant neuf scénarios produisant chacun 1000 réplications de la puissance et la valeur de ces méthodes d'estimation. Les résultats de nos simulations montrent que la méthode CE-DWOLS des PATS bénéficie d'une plus grande puissance statistique à détecter des termes d'interaction covariable-traitement que les méthodes Q-learning et DWOLS des ATS. Par contre, la valeur des PATS optimales estimées par la méthode CE-DWOLS est en moyenne inférieure à celles des ATS optimales estimées avec les méthodes Q-learning et DWOLS. Les valeurs des PATS optimales sont aussi plus variables que celles des ATS. Enfin, une application sur des données réelles issues de la banque de données du cancer du sein du Centre des Maladies du Sein (CSM) a été réalisée. Il en ressort qu'en ce qui concerne la puissance, la méthode Q-learning des ATS performe mieux que les méthodes DWOLS des ATS et CE-DWOLS des PATS. Quant à la variabilité de la valeur, la méthode CE-DWOLS des PATS montre une plus grande variabilité par rapport aux méthodes des ATS. En conclusion, les résultats de notre étude indiquent que les bénéfices d'utiliser les PATS plutôt que les ATS sont variables, à la fois en termes de puissance statistique que de valeur des stratégies optimales estimées. / Personalized medicine is a growing field that focuses on using individual patient information history to optimize treatment strategies tailored to each patient or group of patients with the same characteristics. Several so-called adaptive treatment strategy (ATS) estimation methods exist, such as Q-learning, DWOLS, and G-estimation methods. These methods require interactions between all relevant patient characteristics and treatment to produce unbiased estimates. In practice, it is not always desirable to establish adaptive decision rules that depend on multiple variables. New, more realistic estimation methods, called partially adaptive treatment strategies (PATS) methods, have been developed, for example the CE-DWOLS method. These methods allow treatment decisions to be personalized using a subset of patient characteristics. Our objective is to find out whether there is statistical value in using PATS. To do so, we compare the statistical power and value between the Q-learning and DWOLS methods of ATS and the CE-DWOLS method of PATS. Specifically, simulation studies were performed considering nine scenarios each producing 1000 replications of the power and value of these estimation methods. Our simulation results show that the PATS CE-DWOLS method enjoys greater statistical power in detecting covariate-treatment interaction terms than the Q-learning and DWOLS methods of ATS. On the other hand, the value of optimal PATS estimated by the CE-DWOLS method is on average lower than those of optimal ATS estimated with the Q-learning and DWOLS methods. The values of the optimal PATS are also more variable than those of the ATS. Finally, an application on real data from the breast cancer database of the Breast Disease Center (BDC) was performed. It was found that with respect to power, the ATS Q-learning method performed better than the ATS DWOLS and PATS CE-DWOLS methods. As for the variability of the value, the PATS CE-DWOLS method shows greater variability compared to the ATS methods. In conclusion, the results of our study indicate that the benefits of using PATS rather than ATSs are variable, both in terms of statistical power and the value of the estimated optimal strategies.
15

Status offenders in Ontario and Québec at the end of the 20th century : different laws, different paradigms, similar populations

Klein, David B. 12 April 2018 (has links)
L'Étude d'incidence du Québec (ÉIQ) 1998 précise que, « contrairement aux autres lois provinciales en matière de protection de la jeunesse, la LPJ s'intéresse aux situations d'enfants et d'adolescent-es qui présentent des troubles de comportement sérieux » (Tourigny et coll., 2002, p. xiii). Nous avons soumis les données de l'ÉIQ et de POIS 1998, son pendant ontarien (Trocmé et coll., 2002b), à des analyses secondaires en vue de déterminer si un groupe comparable pourrait effectivement trouver des correspondances au sein du système de bien-être de l'enfance de l'Ontario et, le cas échéant, de caractériser ce groupe, leur famille et les caractéristiques sociodémographiques ainsi que leurs trajectoires à l'intérieur du système de bien-être de l'enfance. Nous avons utilisé, comme repères, des éléments assortis provenant d'inventaires comparables de comportements problématiques tirés des deux instruments, ce qui nous a permis d'identifier une population dans la base de données de l'Ontario, dont le profile de comportement correspondait étroitement à celui du groupe québécois et dont l'entrée dans le système était pourtant attribuable à un large éventail de mauvais traitements. Toutefois, nous avons décelé d'importantes différences dans le recours aux placements hors foyer à l'intérieur des deux systèmes. Ainsi, les placements en Ontario se révélèrent moins fréquents dans l'ensemble qu'au Québec. De plus, moins de 1 placement sur 7 (13,6 %) en Ontario concernait un établissement résidentiel ou un établissement de garde en milieu fermé, alors que la moitié (49,8 %) des placements au Québec se faisaient dans des Centres de réadaptation. Notre examen de l'écriture disponible a révélé aussi que ces réponses divergentes pour des groupes comparables reflètent une approche fondamentalement différente de part et d'autre sur la façon d'aborder la problématique. Au Québec, depuis l'adoption de la Loi sur la protection de la jeunesse en 1977 et comme on peut le voir d'après le Manuel de référence sur la protection de la jeunesse (Gouvernement du Québec, 1998), ce groupe fut défini comme population ayant des problèmes de santé mentale nécessitant des soins pouvant être prodigués en centre d'accueil. Cependant, au cours de cette même période historique, une philosophie d'intervention minimaliste se concentrant sur le risque et s'inspirant d'idées contemporaines en sociologie et en droit trouva des assises ailleurs en Amérique du Nord. Une critique répandue du recours à l'internat reposant sur trois piliers—à savoir que cette modalité de traitement serait (1) injuste; (2) stigmatisante; et (3) inefficace—engendra une vaste désinstitutionalisation de ces jeunes. Ces débats sont écartés dans la Partie I de la thèse où nous présentons nos analyses quantitatives des deux bases de données suivant une perspective qui cherche essentiellement à identifier et à caractériser les jeunes du système de l'Ontario qui ressemblent au groupe à troubles de comportement sérieux du Québec et où nous établissons des comparaisons statistiques entre les deux groupes selon notre intérêt et la pertinence des données. La Partie II examine l'émergence des deux cadres juridiques à la lumière des lignes de force de la réforme de la justice juvénile constatées en Amérique du Nord au cours du dernier tiers du vingtième siècle. Elle porte en particulier sur l'origine des attitudes divergentes concernant le recours à l'internat dans les deux systèmes au moment où les deux études d'incidence furent effectuées; toutefois, elle indique que les plus récents amendements apportés à la LPJ pointent vers une convergence importante à l'égard des approches favorisées dans d'autres parties du continent. / The 1998 Québec Incidence Study (Étude d'incidence du Québec; ÉIQ) states that Québec's Loi sur la protection de la jeunesse (LPJ), "unlike other provincial laws [...] covers cases not only of abused or neglected children but also of children and teens with serious behaviour problems" (Tourigny et al., 2003, p. 5). We performed secondary analyses on data from the ÉIQ and its counterpart, the 1998 Ontario Incidence Study (OIS; Trocmé et al., 2002b) to determine whether a comparable group might in fact be finding routes into the Ontario child welfare System and, if so, to characterize this group, their family and sociodemographic characteristics, and their trajectories in the child welfare System. Using matched items from similar inventories of problem behaviors in the two instruments as markers, we identified a population in the Ontario database whose behavioral profile closely paralleled that of the Québec group, yet whose entry into the System was occasioned by a wide range of maltreatments. We found, however, important differences in the use of out-of-home placements in the two Systems: Ontario placed fewer individuals overall than did Québec; moreover, less than 1 in 7 (13.6%) of Ontario placements were in residential or secure facilities, whereas half (49.8%) of Québec placements were in the Centres de réadaption. We also learned from our explorations of the literature that these differing responses to comparable groups reflect fundamentally divergent ways of framing the question. In Québec, with the passage of the 1977 LPJ and, as exemplified by the Manuel de référence sur la protection de la jeunesse (Gouvernement du Québec, 1998), this group came to be defined as a mental health population needing treatment, which could be furnished by the Centre de réadaptation. Over the same historical period, however, a minimalist, risk-focused philosophy of intervention drawing on contemporary ideas in sociology and law took hold elsewhere in North America, giving rise to a widespread deinstitutionalization of unmanageable, nondelinquent adolescents based on the perception among policymakers that custodial interventions were (1) unjust; (2) stigmatizing; and (3) ineffective. These debates are largely set aside in part I of the thesis, where we present our quantitative analyses with the two databases in a perspective that focuses primarily on identifying and characterizing youth in the Ontario System who resemble the troubles de comportement sérieux group in Québec, making statistical comparisons between the two groups as interest dictates and the suitability of data permit. In part II, we examine the emergence of the two legal frameworks in the context of juvenile justice reform movements being felt across North America during the final third of the 20th century, with a particular focus on the sources of the ideas that differentiated the two Systems at the time the two incidence studies were carried out—noting, however, that the most recent amendments to the LPJ are suggestive of a significant convergence with approaches favored elsewhere on this continent.
16

Modélisation du comportement extrême de processus spatio-temporels. Applications en océanographie et météorologie.

Raillard, Nicolas 13 December 2011 (has links) (PDF)
Ce travail de thèse porte sur l'étude des extrêmes d'une variable océanique importante dans le cadre des applications: la hauteur significative des vagues. Cette quantité est observée fidèlement par des satellites, mais cette source de donnée produit des données complexes du fait d'une répartition des observations irrégulière, en temps et en espace. Ce problème est primordial dans le cadre de l'étude des extrêmes, car peu de modèles statistiques sont adaptés à de telles données. Deux modèles sont présentés dans ce document. Nous commençons par décrire un modèle d'interpolation basé sur l'estimation des vitesses de déplacement des structures d'états de mer à l'aide de méthodes de filtrage particulaire. Ensuite nous avons mis en place une procédure d'estimation de la structure d'ordre deux du champ déplacé, dans le but d'appliquer une interpolation. Cette procédure a montré une amélioration par rapport aux techniques usuelles, mais une insuffisance pour modéliser les extrêmes. Dans un second temps, nous mettons en oeuvre une procédure pour modéliser les dépassements de seuils d'un processus observé à temps irrégulier ou avec des valeurs manquantes. Nous proposons un modèle basé sur les méthodes de dépassement de seuils multi-variés et les extrêmes de processus, ainsi qu'une méthode d'estimation des paramètres par des techniques de vraisemblance composite. Enfin, nous montrons la convergence de l'estimateur et, à l'aide de simulations ainsi que par une application à des données de hauteurs significatives, nous concluons que la prise en compte de tous les dépassements permet d'améliorer l'estimation des niveaux de retour de même que de la description de la durée des extrêmes.
17

Contributions à la conception géomécanique des chantiers à l'aide d'approches statistiques : le cas de la mine Éléonore

Guido, Sébastien 15 April 2019 (has links)
L’ensemble des mines – et particulièrement celles exploitant un gisement filonien ou de faible puissance – sont très sensibles à la problématique de la dilution minière (i.e ., bris hors-profil de l’éponte supérieure). En effet, puisque cette dilution est généralement de faible teneur, le matériel qui se retrouve dans les chantiers miniers peut ne pas permettre de compenser les coûts associés au minage et par conséquent, la rentabilité de l’opération peut en être affectée. Ceci est particulièrement vrai lorsque la teneur de la dilution se situe sous le seuil de rentabilité (i.e., teneur de coupure). Par ailleurs, lorsque des effondrements (dilution) surviennent pendant les activités de soutirage, ceci représente un risque important pour les équipements mobiles (e.g., chargeuse-navette). Nombreux sont les chercheurs qui ont travaillé à développer et à améliorer les abaques de stabilité et critères de conception de chantiers, mais leur efficacité à prédire le bris hors-profil est souvent faible. Néanmoins, ces outils demeurent très utiles pour les projets sur sites vierges (« greenfield projects »), mais dès lors que les conditions géomécaniques d’un site deviennent mieux comprises, il importe de corriger et d’optimiser ces critères de conception afin de mieux représenter la réalité de l’opération minière. Ce mémoire expose donc la méthodologie employée afin de quantifier le bris hors-profil provenant des différentes surfaces des chantiers (i.e., épontes, toit, murs) exploités par la méthode de chambre vide. Une comparaison entre les performances réelles et celles prédites par les modèles couramment utilisés dans l’industrie a été effectuée. À l’aide de méthodes statistiques univariées et bivariées, les paramètres affectant le bris hors-profil peuvent être déterminés objectivement. L’élaboration de nouveaux modèles statistiques permet également d’accroître la fiabilité des prédictions (i.e., le bris hors-profil) et fournit des outils permettant d’assister les ingénieurs dans la conception et le dimensionnement des chantiers miniers. La mine Éléonore de Goldcorp a servi de cas d’étude afin de démontrer la validité d’une telle démarche.
18

Établissement d'une courbe de correction des précipitations solides en fonction de l'intensité du vent et validation par l'utilisation de modèles de simulation de la couverture de neige

Therrien, Charles 11 April 2018 (has links)
Les précipitomètres tendent à sous-estimer les précipitations solides en présence de vent. Ces pertes sont typiquement évaluées en faisant le rapport des observations d'un précipitomètre sur celles d'un appareil plus précis, le Double-Fence Intercomparison Reference (DFIR). Pour des événements de faible précipitation, de petites erreurs dans les observations du DFIR peuvent induire des erreurs importantes dans le rapport de captage des mesures du précipitomètre sur les observations du DFIR. Pour cette raison, les événements de précipitation de moins de 3 mm sont généralement rejetés avant de réaliser une analyse de régression. Nous avons démontré qu'il était possible de déterminer une courbe de correction utilisant toutes les observations par la méthode des moindres carrés pondérés et par la méthode de maximum de vraisemblance (avec estimations locale et globale). L'utilisation de modèles de simulation de la couverture de neige a montré que les résultats utilisant les données corrigées sont nettement meilleurs. / Automatic precipitation gauges tend to underestimate solid precipitation in the presence of wind. These losses are typically evaluated by submitting the ratio of the gauge observations on those of a more accurate apparatus, the Double-Fence Intercomparison Reference (DFIR). For small precipitation events, small errors in the DFIR observations can induce important errors in the catch ratio of gauge measurements to the DFIR observations. For this reason, events of less than 3 mm are generally rejected before performing a regression analysis. In this report, we showed that it was possible to determine a correction curve using all the observations by the method of weighted least squares and by the method of maximum likelihood (using local and global estimations). The use of snow cover simulation models showed that the results using the corrected data are definitely better.
19

Methods for multi-class segmentation of molecular sequences

Cheng, Ming-Te January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
20

Réflexion des champs électromagnétiques en milieu urbain et incertitude associée : analyse au moyen de fonctions de Green / Reflected electromagnetic fields in urban environment and associated uncertainty : analysis using green's functions

Mostarshedi, Shermila 01 December 2008 (has links)
Ce travail de thèse a pour objet une méthode de détermination du champ électromagnétique au voisinage des bâtiments urbains, ainsi que l’évaluation de l’incertitude associée, liée aux paramètres variables des façades. Cette étude met en oeuvre une méthode théorique, précise et rapide de caractérisation du champ électromagnétique réfléchi par des objets diffractants diélectriques de taille supérieure à quelques longueurs d’onde. La réflexion comprend la rétrodiffusion, la réflexion spéculaire et la réflexion non-spéculaire. La méthode se trouve dans la catégorie des techniques basées sur les courants équivalents et calcule le rayonnement de ces courants à l’aide des fonctions de Green associées à l’interface entre deux diélectriques semi-infinis. Les fonctions de Green tiennent compte de la présence de l’objet diffractant correctement dans toutes les directions, c’est pourquoi la méthode proposée ici présente une précision plus importante que les méthodes du même type, particulièrement dans les directions nonspéculaires. La méthode peut être appliquée dans différents domaines : radar, télédétection, géophysique, et plus particulièrement dans l’environnement urbain dans le cadre de cette thèse. Un modèle simple de bâtiment urbain, composé des murs (en béton) et des fenêtres (en verre), est adopté dans les exemples présentés au cours du manuscrit, avec l’avantage de tenir compte simplement du type et de l’épaisseur des fenêtres. La méthode des fonctions de Green étant rapide et peu exigeante en temps de calcul et en ressources informatiques, elle permet d’obtenir une caractérisation rapide du champ, et en conséquence de déterminer l’influence de plusieurs paramètres intervenant dans le calcul du champ au voisinage d’un bâtiment via des études paramétriques/statistiques. L’influence de la variation de plusieurs paramètres est approfondie par des études statistiques. Parmi ces paramètres citons : la permittivité du matériau principal de la façade, la distribution des fenêtres, les dimensions (la largeur et la hauteur) des fenêtres et le type du vitrage (l’épaisseur des fenêtres). La connaissance des paramètres influents et la quantification de leur influence sur le champ réfléchi permettront aux simulateurs de la propagation d’onde de faire des simplifications qui accélèrent le temps de calcul tout en maintenant une bonne précision des résultats. Ce travail pourra être utilisé afin d’obtenir des modèles de propagation plus précis / This study presents a theoretical, fast and accurate method for characterizing the electromagnetic fields reflected by dielectric objects larger than a few wavelengths. The method is based on equivalent currents whose radiation is calculated by the Green's functions associated with the interface between two semi-infinite dielectrics. The Green's functions take into account the presence of the diffracting object correctly in all directions ; the proposed method presents thus a greater accuracy than other methods of the same type. The method being not very demanding in computation time and computer resources, it makes possible to determine the influence of several parameters involved in calculating the field in the vicinity of a building through statistical studies. These studies will allow propagation simulators to make simplifications that speed up the computation time while maintaining good accuracy

Page generated in 0.0815 seconds