• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 389
  • 209
  • 62
  • 13
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 715
  • 253
  • 185
  • 172
  • 145
  • 137
  • 117
  • 117
  • 112
  • 108
  • 104
  • 93
  • 85
  • 84
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Optimum-synthesis methods for cable-driven parallel mechanisms

Azizian, Kaveh 19 April 2018 (has links)
Les mécanismes parallèles entraînés par câbles sont une classe spéciale de mécanismes parallèles pours lesquels les liaisons rigides sont remplacées par des câbles. Ces mécanismes comprennent une plateforme mobile et une base fixe, qui sont reliées par plusieurs câbles. Le contrôle des longueurs des câbles produit le mouvement désiré de la plateforme mobile. Ces mécanismes ont le potentiel de fournir des espaces de travail à grande échelle comparativement aux mécanismes parallèles conventionnels car les câbles peuvent être enroulés sur des bobines sur de grandes longueurs. Cependant, cette caractéristique est limitée par la nature des câbles, qui doivent demeurer en tension afin de produire un mouvement désiré de la plateforme principale. L'objectif principal de cette thèse est de concevoir des méthodes efficaces pour la synthèse dimensionelle optimale des mécanismes parallèles entraînés par câbles surcontraints, c'est-à-dire, des mécanismes pour lesquels le nombre de câbles excède le nombre de degrés de liberté. Plus précisément, nous souhaitons obtenir la géométrie des mécanismes parallèles entraînés par câbles dont l'espace des poses polyvalente (EPP) comprend des espaces de travail prescrits. L'espace des poses polyvalentes d'un mécanisme parallèle entraîné par câbles est l'ensemble des poses (les positions et les orientations) de l'organe terminal pour lesquelles tous les torseurs appliqués sont réalisables. Un torseur appliqué est dit réalisable, s'il peut être produit par un ensemble de câbles dont les tensions sont non-négatives. Une fois le problème de la synthèse dimensionnelle résolu, nous pouvons appliquer la solution à plusieurs reprises pour différents nombres de câbles afin d'effectuer la synthèse de la structure. Cette thèse est divisée en trois parties principales. Tout d'abord, l'espace des poses polyvalentes des mécanismes parallèles plans entraînés par câbles et les caractéristiques de leurs frontières sont étudiés. Cette étude révèle les relations jusqu'ici inconnues entre l'EPP à orientation constante (EPPOC) et les aires orientées. Un algorithme graphique est proposé afin de déterminer les types de sections coniques formant les frontières de l'EPPOC . Puis, sur la base des expressions mathématiques obtenues, une méthodologie est proposée pour résoudre le problème de la synthèse dimensionnelle des mécanismes parallèles plans entraînés par câbles pour les orientations discrètes c'est-àdire, les translations. L'algorithme est basé sur des techniques de relaxation convexe qui nous amènent à formuler la synthèse dimensionnelle comme un programme non linéaire. L'idée est de maximiser la taille de plusieurs boîtes qui représentent une approximation d'un espace de travail prescrit, tout en essayant de les garder à l'intérieur de l'EPP du mécanisme parallèle plan entraîné par câbles pendant la procédure d' optimisation. Une telle approximation de l'espace de travail prescrit est obtenue via la méthode d'analyse par intervalles. L'algorithme obtenu est étendu au cas de l'orientation en continu pour un intervalle donné d'angles d'orientation. En fait, nous introduisons un programme non linéaire permettant de varier la géométrie du mécanisme parallèle plan entraîné par câbles et maximiser le facteur d'échelle de l'ensemble prescrit de boîtes. Lorsque le facteur d'échelle optimal est supérieur ou égal à un, l'EPP du mécanismes parallèle plan entraîné par câbles résultant contient l'ensemble des boîtes prescrit. Sinon, l'EPP obtenu offre généralement une bonne couverture des boîtes prescrites. Enfin, sur la base des résultats obtenus pour des mécanismes parallèles plans entraînés par câbles, un algorithme est proposé pour résoudre la synthèse dimensionelle de mécanismes parallèles spatiaux entraînés par câbles. Comme pour le cas plan, nous proposons un programme non linéaire à grande échelle dont les solutions optimales peuvent fournir des geometries de mécanismes parallèles spatiaux entraînés par câbles pour un espace de travail prescrit dans une plage donnée des angles d'orientation. L'efficacité de ces méthodes est émontrée par plusieurs exemples en utilisant un logiciel développé. En outre, cette thèse fournit un outil efficace pour les concepteurs de robots parallèles entraînés par câbles
72

Évaluation des mesures de ruine dans le cadre de modèles avancés de risque

Marri, Fouad 13 April 2018 (has links)
La théorie du risque consiste en l'étude de modèles décrivant le processus de surplus d 'une compagnie d 'assurance. L'évaluation de différentes mesures de ruine dans le cadre de ces modèles permet d'obtenir une idée générale de la santé financière de la compagnie d'assurance et du risque assumé par celle-ci. Le modèle classique de risque pour décrire les arrivées et les coûts des sinistres est le modèle Poisson composé. Ce modèle est basé sur une hypothèse d 'indépendance entre le montant des sinistres et le temps écoulé entre chacun. Cette hypothèse facilite le calcul des mesures de ruine mais peut s'avérer trop restrictive dans différents contextes. L'objectif principal de cette thèse est l'étude d'extensions du modèle classique dans lesquelles sont introduites une structure de dépendance entre la sévérité et la fréquence des sinistres. La copule de Farlie-Gumbel-Morgenstern et une extension de cette copule sont utilisées pour définir cette structure. En raison de la forme et de la flexibilité de ces copules, il est possible d'adapter les outils développés récemment en théorie du risque dans l'évaluation et l'analyse des mesures de ruine. La fonction de Gerber-Shiu et certains cas particuliers de cette fonction , comme la transformée de Laplace du temps de la ruine et l'espérance de la valeur actualisée du déficit à la ruine sont étudiées dans le cadre de ces extensions. On s'intéresse également à l'évolution du processus de surplus en présence d'une barrière horizontale. Les mesures de ruine citées plus haut, ainsi que le montant total actualisé des dividendes distribués sont évaluées. / [Copule de Farlie-Gumbel-Morgenstern ; Modèle Poisson composé]
73

Modèles de copules Archimédiennes pour données de Bernoulli corrélées

Tounkara, Fode 23 April 2018 (has links)
Cette thèse introduit et explore une nouvelle classe de modèles probabilistes pour des données de Bernoulli échangeables en forme de grappe. Dans ces modèles, la probabilité conditionnelle de succès est une fonction de la probabilité marginale de succès et d’un effet aléatoire positif spécifique à chaque grappe. La distribution de l’effet aléatoire contient un paramètre d’association qui est estimé pour donner une mesure de la force de la dépendance résiduelle ignorée par les marges. Nous montrons que la transformée de Laplace de l’effet aléatoire est liée au générateur des modèles de copules Archimédiennes, ce qui nous permet d’avoir un nouvel aperçu de ces modèles. L’approche que nous proposons offre de nombreux avantages. En effet, la famille de copules Archimédiennes fournit une large classe de modèles pour la sur-dispersion dans une expérience de Bernoulli. D’un point de vue statistique, la fonction de vraisemblance marginale pour les données de l’échantillon a une expression explicite, les méthodes du maximum de vraisemblance sont alors faciles à mettre en oeuvre. Nous avons considéré quatre applications de nos modèles. Premièrement, nous construisons un intervalle de confiance par vraisemblance profilée pour le coefficient de corrélation intra-grappe (ICC). La deuxième application concerne l’estimation de la taille d’une population en présence d’hétérogénéité observée et non observée (résiduelle) dans une expérience de capture-recapture. Le troisième problème traite de l’estimation dans de petites régions, et enfin le quatrième indépendant des trois premiers, analyse les caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans la première application, nous considérons le cas le plus simple de nos modèles où aucune covariable n’est disponible puis proposons la méthode du maximum de vraisemblance pour l’estimation du coefficient de corrélation intra-grappe (ICC) à l’aide de plusieurs spécifications de copules Archimédiennes. La sélection d’un modèle particulier est effectuée en utilisant le critère d’information d’Akaike (AIC). La procédure comprend l’estimation du maximum de vraisemblance et la méthode du profil de vraisemblance (ou vraisemblance profilée). Nous avons fait des études de simulation pour mesurer la performance de la méthode d’intervalle par vraisemblance profilée sous nos modèles en termes de taux de couverture et de longueur d’intervalle de confiance, et la sensibilité de notre approche à la spécification d’un modèle de copule. La procédure que nous proposons a aussi été appliquée à des données réelles. Nous comparons notre méthode à celle proposée sous le modèle Béta-binomial, et la méthode d’intervalle de type Wald modifié proposée par Zou and Donner (2004). L’une des conclusions importantes de ces études est que l’intervalle de confiance par vraisemblance profilée obtenu sous nos modèles présente de belles propriétés en termes de taux couverture et de longueur d’intervalle de confiance, même lorsque le nombre de grappes est petit. La sélection de modèle est une étape importante : si le modèle est mal spécifié, alors cela pourrait conduire à des résultats erronés. La seconde application, une extension de la première pour accommoder des covariables au niveau des grappes, concerne la modélisation de l’hétérogéneité dans les probabilités de capture lors d’une expérience de capture-recapture dans une population fermée. Dans ce contexte, nos modèles sont utilisés pour modéliser l’hétérogéneité résiduelle qui n’est pas prise en compte par les covariables mesurées sur des unités capturées. Plusieurs modèles sont disponibles pour l’hétérogénéité non observée et la probabilité de capture marginale est modélisée en utilisant les fonctions de liens Logit et Log-Log complémentaire. Les paramètres sont estimés en utilisant la vraisemblance conditionnelle construite à partir des observations collectées sur les unités capturées au moins une fois. Ceci généralise le modèle de Huggins (1991) qui ne tient pas compte de l’hétérogénéité résiduelle. La sensibilité de l’inférence à la spécification d’un modèle est également étudiée par des simulations. Un exemple numérique est présenté. La troisième application traite de la prédiction dans de petites régions. Nous proposons des techniques de Bayes basées sur nos modèles pour estimer des proportions régionales. L’inférence Bayésienne que nous proposons consiste à trouver la distribution a posteriori de l’effet aléatoire et sa transformée de Laplace sachant les données et les paramètres du modèle. Cette transformée de Laplace est ensuite utilisée pour trouver des estimateurs de Bayes et leurs variances a posteriori pour les vraies proportions. Nous développons une étude de comparaison entre le meilleur prédicteur de Bayes (BP) et le meilleur prédicteur linéaire sans biais (BLUP). Nous avons également étudié l’efficacité du BP obtenu sous nos modèles relativement au BLUP. Les paramètres du modèle sont estimés en utilisant la méthode du maximum de vraisemblance. L’avantage de notre approche est que la fonction de vraisemblance et l’expression du meilleur prédicteur (BP) ont une forme explicite, ce qui facilite la mise en oeuvre de leur évaluation sur le plan numérique. Nous obtenons un prédicteur empirique de Bayes (EBP) en remplaçant les paramètres par leurs estimateurs dans l’expression du BP. Nous utilisons le critère d’information d’Akaike (AIC) pour la selection d’un modèle. Nous utilisons la méthode du jackknife pour estimer l’erreur quadratique moyenne des prédicteurs empiriques. Des résultats empiriques obtenus à partir de données simulées et réelles sont également présentés. Enfin, le quatrième problème traité dans cette thèse, qui est indépendant des trois premiers, concerne l’analyse des caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans ce contexte, nous considérons les données de l’EDS 2006 du Niger et utilisons les copules Archimédiennes bidimentionelles pour modéliser l’association entre le niveau d’éducation (variable discrète) des hommes et leur revenu pré-marital (variable continue). Nous construisons la vraisemblance pour un échantillon issu de ce couple de variables aléatoires mixtes, et déduisons une estimation du paramètre de dépendance en utilisant une procédure semi-paramétrique où les marges sont estimées par leurs équivalents empiriques. Nous utilisons la méthode du jackknife pour estimer l’erreur type. Nous utilisons la méthode de Wald pour tester l’égalité entre l’association des caractéristiques socio-économiques des hommes qui épousent des jeunes filles mineures et celle des hommes qui se marient avec des femmes âgées. Les résultats du test contribuent à la validité de notre théorie selon laquelle les hommes qui épousent des jeunes filles de moins de 18 ans ont un niveau d’éducation et un revenu pré-marital faibles, lorsqu’on les compare aux hommes qui ne le font pas. / This thesis introduces and explores a new class of probability models for exchangeable clustered binary data. In these models, the conditional probability of success is characterized by a function of the marginal probability of success and a positive cluster-specific random effect. The marginal probabilities are modeled using the logit and complementary log-log link functions. The distribution of the random effect contains an association parameter that is estimated to give a measure of the strength of the within-cluster residual dependence that is not accounted for by the margins. We show that the random effect distributions can be related to exchangeable Archimedean copula models, thus giving new insights on such models. The copula approach offers many advantages. Indeed, the family of Archimedean copulas provides a large class of models for over-dispersion in a Bernoulli experiment. From a statistical perspective, the marginal likelihood function for the sample data has an explicit expression, the maximum likelihood methods are then easy to implement and computationally straightforward. Based on the proposed models, four applications are considered. First, we investigate the construction of profile likelihood confidence interval (PLCI) for the intra-cluster correlation coefficient (ICC). The second application is concerned with an heterogeneity in capture probabilities in a mark-recapture study for estimating the size of a closed population. The third contribution deals with the estimation in small areas, the fourth and final, independent of the other three, analyzes the socioeconomic characteristics of men who prefer to marry girls under 18 years old. In the first application, we consider a simple case, without covariates and construct maximum likelihood inference procedures for the intra-cluster correlation using several specifications of Archimedean copulas. The selection of a particular model is carried out using the Akaike information criterion (AIC). Profile likelihood confidence intervals for the ICC are constructed and their performance are assessed in a simulation experiment. The sensitivity of the inference to the specification of the copula family is also investigated through simulations. Numerical examples are presented. We compare our approach with that proposed under the Beta-binomial model and with the modified Wald interval method proposed by Zou and Donner (2004). One of the important findings of these studies is that the profile confidence interval obtained under our models presents nice properties, even when the number of clusters is small. Model selection is an important step: if the model is poorly specified, then this could lead to erroneous results. The second application, an extension of the first one to accommodate cluster level covariates, is concerned with an heterogeneity in capture probabilities in a capture-recapture study for estimating the size of a closed population. Unit level covariates are recorded on the units that are captured and copulas are used to model the residual heterogeneity that is not accounted for by covariates. Several models for the unobserved heterogeneity are available and the marginal capture probability is expressed using the Logit and the complementary Log-Log link functions. The parameters are estimated using a conditional likelihood constructed with the data obtained on the units caught at least once. The population size is estimated using a Horvitz-Thompson estimator constructed using the estimated probabilities that a unit is caught at least once. This generalizes the model of Huggins (1991) that does not account for a residual heterogeneity. The sensitivity of the inference to the specification of a model is also investigated through simulations. A numerical example is presented. The third application uses the models of the first two in order to estimate small area proportions. We apply Bayes techniques using a new class of probability models, to estimate small area proportions. The Bayesian inference under the proposed models consists in obtaining the posterior distribution of the random effect and its Laplace transform. This posterior Laplace transform is then used to find Bayes estimates of small area proportions. We develop a comparison between the Best Predictor (BP) and the Best Linear Unbiased Predictor (BLUP). The model parameters are estimated using the maximum likelihood (ML) method. Under the proposed model, the likelihood function and the best predictor (BP) of small area proportion have closed form expressions. Model parameters are replaced by their ML estimates in the BP to obtain the empirical best predictor (EBP). We use the Akaike information criterion (AIC) for selecting a particular model. We propose the jackknife method to estimate the mean square error of the empirical Bayes predictor. Empirical results obtained from simulated and real data are also presented. The fourth and last problem addressed in this thesis, independently of the others three, investigates socioeconomic characteristics of men who prefer to marry girls under 18 years. We consider the data from the 2006 DHS Niger and use a bivariate Archimedean copula to model the association between education level (discrete) of men and their pre-marital income (continuous). We present the likelihood function for a sample from this pair of mixed random variables, and derive an estimate of the dependence parameter using a semiparametric procedure where margins are estimated by their empirical equivalents. We use the jackknife method to estimate the standard error. We use a Wald-type procedure, to perform a parametric hypothesis test of equality between the association of the socio economic characteristics of men who marry underage girls and that of men who marry older women instead. These test results contribute to the validity of our theory that men who marry girls under 18 years old have a low level of education and income pre-marital, when compared to men who did not.
74

Estimation du paramètre d'une copule archimedienne en présence de censure dépendante

Monwanou, Mondji Herbert 24 April 2018 (has links)
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles. / Conventional methods of survival analysis including non-parametric Kaplan-Meier (1958) assume independence between time to death and time to censoring. But this independence assumption is not always sustainable. Thus, several authors have developed methods to take into account the dependence by making assumptions about the relationship between the two times. In this paper, we proposed a method to estimate the dependence in case of competing risk data using the copula-graphic estimator for Archimedean copula (Rivest and Wells, 2001) and assuming knowledge of the distribution of censoring time. Then we studied the consistency of this estimator through simulations and applied to a real dataset.
75

Control and optimization of the primary drying of lyophilization in vials

Chia, Andrea 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 28 juin 2023) / La lyophilisation est devenue un sujet essentiel de développement dans l'industrie pharmaceutique. Il s'agit d'une technique de séchage reposant sur le principe de la sublimation qui est utilisée pour stabiliser et conserver des matériaux qui ne peuvent pas être séchés par des techniques conventionnelles. La lyophilisation comporte trois étapes : la congélation, le séchage primaire et le séchage secondaire. L'efficacité globale du procédé dépend principalement de la performance du séchage primaire, qui représente l'étape la plus longue et la plus énergivore et détermine en grande partie la qualité du produit final. La pratique courante consiste à opérer le procédé sous des profils pré-calculés avec des marges de sécurité, ce qui conduit à des cycles conservateurs et sous-performants. La commande automatique est donc une voie prometteuse pour réduire la durée de séchage, mais elle se limite généralement à des applications en flacon unique négligeant l'hétérogénéité spatiale affectant la dynamique de séchage intra-lot. D'autres défis sont liés à l'inaccessibilité des variables clés du processus ou à l'utilisation d'instruments intrusifs pour leur mesure. Ce projet de recherche étudie la commande et l'optimisation du séchage primaire de la lyophilisation en flacons, en abordant trois aspects principaux : la modélisation, l'estimation et la commande. La conception des stratégies d'estimation et de contrôle exige d'abord une représentation fiable du procédé. Le modèle proposé intègre les équations fondamentales du séchage primaire dans un modèle linéaire à paramètres variables, fournissant un compromis approprié entre la précision du modèle et le coût de calcul. Cette étude explore également la conception d'estimateurs en ligne de variables clés du procédé à l'aide d'instruments non invasifs, applicables à des équipements pilotes et industriels. La mesure globale est convertie pour tenir compte des contributions des flacons individuels, et cette mesure locale est utilisée dans la conception des estimateurs en ligne de la température du produit. Trois estimateurs sont formulés à l'aide des algorithmes suivants : filtre de Kalman étendu, l'estimation à fenêtre glissante et l'estimation non linéaire par moindres carrés. Des résultats satisfaisants ouvrent la voie à la possibilité de concevoir des estimateurs multi-flacons avec la mesure globale de la vapeur d'eau et englobant l'hétérogénéité spatiale du séchage. Le principe de commande initial a été développé et évalué en simulation pour un cas à flacon unique. Il a considéré deux algorithmes : une commande proportionnelle-intégrale et la commande prédictive. Le schéma de contrôle a été étendu à un problème à multiples flacons et validé dans une unité à l'échelle pilote. Les résultats ont été concluants, la commande automatique a conduit à des réductions significatives du temps de séchage par rapport aux conditions de fonctionnement typiques, et l'approche multi-flacons a permis d'obtenir un cycle très fiable. / Lyophilization, or freeze-drying, has become an essential subject of ongoing development in the pharmaceutical industry. It is a drying technique relying on the sublimation principle and is used to stabilize and preserve materials that cannot be dried by conventional techniques. Lyophilization involves three stages: freezing, primary drying, and secondary drying. The global efficiency of the process relies mainly on the performance of primary drying, as it represents the most time and energy-consuming stage and largely determines the quality of the final product. The common practice runs the process under pre-calculated profiles with safety margins, leading to conservative and underperforming cycles. Process control is thus a promising avenue to decrease drying duration, but it is generally confined to single-vial applications neglecting the spatial heterogeneity affecting the drying dynamics intra-lot. Additional challenges are related to the inaccessibility of key process variables or the use of intrusive instrumentation for their measurement. This research project investigates the control and optimization of the primary drying of lyophilization in vials, addressing three main aspects: modeling, estimation, and control. The conception of estimation and control strategies first requires a reliable process representation. The proposed model accommodates the fundamental equations of primary drying into a linear parameter-varying model, providing a suitable compromise between model accuracy and computational cost. This study also explores the design of in-line estimators of key process variables using non-invasive instrumentation, with applicability to pilot and industrial scale equipment. The global reading is converted to account for the contributions of individual vials, and this local measurement is used in the design of in-line estimators of the product temperature. Three estimators are formulated using the following algorithms: extended Kalman filter, moving horizon estimation, and nonlinear least square estimation. Satisfactory results open the door to the possibility of designing multi-vial estimators with the global reading of water vapor and encompassing the spatial heterogeneity of drying. The initial control framework was developed and benchmarked in simulation for a single-vial case. It considered two algorithms: a standard proportional integral control and a model predictive control. The control scheme was extended to a multi-vial problem and validated in a pilot-scale unit. Results were conclusive, process control led to significant drying time reductions compared to typical operating conditions, and the multi-vial approach yielded a highly dependable cycle.
76

Inférence d'interactions d'ordre supérieur et de complexes simpliciaux à partir de données de présence/absence

Roy-Pomerleau, Xavier 27 January 2024 (has links)
Malgré l’efficacité des réseaux pour représenter les systèmes complexes, de récents travaux ont montré que leur structure limite parfois le pouvoir explicatif des modèles théoriques, puisqu’elle n’encode que des relations par paire. Si une interaction plus complexe existe dans le système représenté, elle est automatiquement réduite à un groupe d’interactions par paire, c’est-à-dire d’ordre un. Il faut alors utiliser des structures qui prennent en compte les interactions d’ordre supérieur. Cependant, qu’elles soient ou non d’ordre supérieur, les interactions entre les éléments d’un système sont rarement explicites dans les jeux de données. C’est notamment le cas des données de présence/absence qui indiquent quelles espèces (animales, végétales ou autres) se retrouvent (ou non) sur un site d’observation sans indiquer les relations entre elles. L’objectif de ce mémoire est alors de développer une technique d’inférence pour dénicher les interactions d’ordre supérieur au sein de données de présence/absence. Ici, deux cadres théoriques sont explorés. Le premier est basé sur la comparaison entre la topologie des données, obtenue grâce à une hypothèse souple, et celle d’un ensemble aléatoire. Le second utilise plutôt les modèles log-linéaire et les tests d’hypothèses pour inférer les interactions une à une jusqu’à l’ordre désiré. Ce cadre a permis d’élaborer plusieurs méthodes d’inférence qui génèrent des complexes simpliciaux (ou des hypergraphes) qui peut être analysés grâce aux outils standards de la science des réseaux en plus de l’homologie. Afin de valider ces méthodes, nous avons développé un modèle génératif de données de présence/absence dans lesquelles les véritables interactions sont connues. Des résultats concrets ont également été obtenus pour des jeux de données réelles. Notamment, à partir de données de présence/absence d’oiseaux nicheurs du Québec, nous avons réussi à inférer des cooccurrences d’ordre deux. / Despite the effectiveness of networks to represent complex systems, recent work has shownthat their structure sometimes limits the explanatory power of the theoretical models, sinceit only encodes dyadic interactions. If a more complex interaction exists in the system, it isautomatically reduced to a group of pairwise interactions that are of the first order. We thusneed to use structures that can take higher-order interactions into account. However, whetherrelationships are of higher order or not is rarely explicit in real data sets. This is the case ofpresence/absence data, that only indicate which species (of animals, plants or others) can befound (or not) on a site without showing the interactions between them.The goal of this project is to develop an inference method to find higher-order interactionswithin presence/absence data. Here, two frameworks are examined. The first one is based onthe comparison of the topology of the data, obtained with a non-restrictive hypothesis, andthe topology of a random ensemble. The second one uses log-linear models and hypothesistesting to infer interactions one by one until the desired order. From this framework, we havedevelopped several inference methods to generate simplicial complexes (or hypergraphs) thatcan be studied with regular tools of network science as well as homology. In order to validatethese methods, we have developed a generative model of presence/absence data in which thetrue interactions are known. Results have also been obtained on real data sets. For instance,from presence/absence data of nesting birds in Québec, we were able to infer co-occurrencesof order two
77

Améliorations aux systèmes à initiative partagée humain-ordinateur pour l'optimisation des systèmes linéaires

Chéné, François 02 February 2024 (has links)
La programmation linéaire permet d’effectuer l’optimisation de la gestion des réseaux de création de valeur. Dans la pratique, la taille de ces problèmes demande l’utilisation d’un ordinateur pour effectuer les calculs nécessaires, et l’algorithme du simplexe, entre autres, permet d’accomplir cette tâche. Ces solutions sont cependant construites sur des modèles approximatifs et l’humain est généralement méfiant envers les solutions sorties de « boîtes noires ». Les systèmes à initiative partagée permettent une synergie entre, d’une part, l’intuition et l’expérience d’un décideur humain et, d’autre part, la puissance de calcul de l’ordinateur. Des travaux précédents au sein du FORAC ont permis l’application de cette approche à la planification tactique des opérations des réseaux de création de valeur. L’approche permettrait l’obtention de solutions mieux acceptées. Elle a cependant une interface utilisateur limitée et contraint les solutions obtenues à un sous-espace de l’ensemble des solutions strictement optimales. Dans le cadre de ce mémoire, les principes de conception d’interface humain-machine sont appliqués pour concevoir une interface graphique plus adaptée à l’utilisateur type du système. Une interface basée sur le modèle de présentation de données de l’outil Logilab, à laquelle sont intégrées les interactivités proposées par Hamel et al. est présentée. Ensuite, afin de permettre à l’expérience et à l’intuition du décideur humain de compenser les approximations faites lors de la modélisation du réseau de création de valeur sous forme de problème linéaire, une tolérance quant à l’optimalité des solutions est introduite pour la recherche interactive de solutions alternatives. On trouvera un nouvel algorithme d’indexation des solutions à combiner et une nouvelle heuristique de combinaison convexe pour permettre cette flexibilité. Afin d‘augmenter la couverture de l’espace solutions accessible au décideur humain, un algorithme de recherche interactive de solution basé sur le simplexe est introduit. Cet algorithme présente une stabilité similaire à la méthode de Hamel et al., mais ses performances en temps de calcul sont trop basses pour offrir une interactivité en temps réel sur de vrais cas industriels avec les ordinateurs présentement disponibles.Une seconde approche d’indexation complète de l’espace solutions est proposée afin de réduire les temps de calcul. Les nouveaux algorithmes « Linear Redundancyless Recursive Research » (Recherche linéaire récursive sans redondance, LRRR) pour la cartographie et l’indexation de l’espace solutions et « N-Dimension Navigation Direction » (direction de navigation à n-dimensions, NDND) pour l’exploration interactive de celui-ci sont présentés. Ces algorithmes sont justes et rapides, mais ont cependant un coût mémoire au-delà de la capacité des ordinateurs contemporains. Finalement, d’autres pistes d’exploration sont présentées, notamment l’exploitation des méthodes du point intérieur et de l’algorithme de Karmarkar ainsi qu’une ébauche d’approche géométrique.
78

Estimation bayésienne du lasso adaptatif pour l'issue

Gaye, Serigne Abib 22 March 2024 (has links)
Dans ce mémoire, on cherche à développer une nouvelle méthode d'estimation pour le lasso adaptatif pour l'issue en utilisant la machinerie bayésienne. L'hypothèse de recherche est que notre nouvelle méthode va beaucoup réduire la lourdeur computationnelle du lasso adaptatif pour l'issue. Notre méthode utilise les mêmes fondements théoriques que le lasso adaptatif pour l'issue. Elle remplit donc les conditions de la propriété d'oracle. Pour sa mise en ÷uvre, on ajuste d'abord un modèle du score de propension bayésien. Ensuite, on estime l'effet du traitement moyen par la pondération par l'inverse de la probabilité de traitement. Par ailleurs, nous considérons une distribution gamma pour le paramètre de régularisation qui nous permet de choisir ce paramètre à partir d'un ensemble continu, alors que le lasso adaptatif pour l'issue fréquentiste utilise une approche de validation croisée qui doit faire un choix parmi un ensemble discret de valeurs préspéciées. In ne, la méthode que nous avons développée répond bien à nos attentes, et permet donc de produire les inférences de façon beaucoup plus rapide. En effet, il a fallu seulement 41.298 secondes pour que cette méthode effectue les inférences, alors que 44.105 minutes ont été né- cessaires au lasso adaptatif pour l'issue. On espère que les idées développées dans ce mémoire vont contribuer signicativement à améliorer les méthodes de sélection de variables en inférence causale avec l'appui des techniques bayésiennes. / In this paper, we aim to develop a new estimation method for the outcome adaptive lasso using Bayesian machinery. The research hypothesis is that our new method will significantly reduce the computational burden of the outcome adaptive lasso. Our method uses the same theoretical foundation as the outcome adaptive lasso. It therefore meets the oracle properties. For its implementation, Bayesian propensity score model is first fitted. Next, the average treatment effect is estimated using inverse probability of treatment weights. In addition, we consider a gamma distribution for the regularisation parameter λ in order to choose this parameter over a continuous set, whereas the frequentist outcome adaptive lasso uses a cross-validation procedure that selects λ among a prespecified discrete set. In fine, the method we have developed meets our expectations, and therefore makes it possible to produce inferences much faster. Indeed, it took only 41.298 seconds for this method to yield inferences, while 44.105 minutes were required for the outcome adaptive lasso. We hope that the ideas developed in this paper will significantly contribute to improve methods for selecting variables in causal inference with the support of Bayesian techniques.
79

Four-bar linkage synthesis using non-convex optimization

Goulet, Vincent 24 April 2018 (has links)
Ce mémoire présente une méthode pour synthétiser automatiquement des mécanismes articulés à quatre barres. Un logiciel implémentant cette méthode a été développé dans le cadre d’une initiative d’Autodesk Research portant sur la conception générative. Le logiciel prend une trajectoire en entrée et calcule les paramètres d’un mécanisme articulé à quatre barres capable de reproduire la même trajectoire. Ce problème de génération de trajectoire est résolu par optimisation non-convexe. Le problème est modélisé avec des contraintes quadratiques et des variables réelles. Une contrainte redondante spéciale améliore grandement la performance de la méthode. L’expérimentation présentée montre que le logiciel est plus rapide et précis que les approches existantes. / This thesis presents a method to automatically synthesize four-bar linkages. A software implementing the method was developed in the scope of a generative design initiative at Autodesk. The software takes a path as input and computes the parameters of a four-bar linkage able to replicate the same path. This path generation problem is solved using non-convex optimization. The problem is modeled with quadratic constraints and real variables. A special redundant constraint greatly improves the performance of the method. Experiments show that the software is faster and more precise than existing approaches.
80

Calcul de la capacité analytique et fonctions d'Ahlfors rationnelles

Younsi, Malik 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Soit K ⊆ C compact et soit X le complément de K par rapport à la sphère de Riemann, X := C∞ \ K. La capacité analytique de K, notée γ(K), est définie par [symbol]. La capacité analytique des sous-ensembles compacts du plan fut introduite par Ahlfors en 1947 dans le but d’étudier un problème soulevé par Painlevé en 1888 demandant une caractérisation géométrique des sous-ensembles compacts dits effaçables. Le problème de Painlevé se révéla fort difficile et il fallut attendre plus d’un siècle avant d’en obtenir une solution satisfaisante, grâce aux travaux de Xavier Tolsa et plusieurs autres. La présente thèse de doctorat vise à étudier en détail la capacité analytique. Plus précisément, dans la première partie de la thèse, on développe une méthode efficace et rigoureuse pour le calcul numérique de la capacité analytique. Cette méthode est d’autant plus intéressante qu’il est extrêmement difficile en pratique d’estimer la capacité analytique d’un ensemble compact donné. On utilise ensuite cette méthode, implémentée sur ordinateur à l’aide du logiciel matlab, pour étudier le célèbre problème de la sous-additivité de la capacité analytique. Ce problème réputé fort difficile fut énoncé en 1967 par Vitushkin et demeure encore à ce jour sans réponse. Plusieurs expérimentations numériques de même que certains des résultats obtenus mènent à la formulation d’une conjecture qui, si démontrée, impliquerait que la capacité analytique est bel et bien sous-additive. Enfin, on démontre la conjecture dans un cas particulier. La seconde partie de la thèse est dédiée à l’étude des fonctions d’Ahlfors, fonctions extrémales pour le problème de la capacité analytique. Plus précisément, on s’intéresse à un problème soulevé par Jeong et Taniguchi visant à déterminer les fonctions d’Ahlfors qui sont des fonctions rationnelles. On donne une solution partielle au problème, fournissant ainsi plusieurs nouveaux exemples explicites de fonctions d’Ahlfors et de capacités analytiques.

Page generated in 0.0522 seconds