Spelling suggestions: "subject:"confidentialité dess données."" "subject:"confidentialité deus données.""
1 |
Étude de l'applicabilité d'une méthode alliant masquage et imputation pour la génération de données complètement synthétiquesBoivin, Ariane 08 January 2025 (has links)
L'utilisation de données synthétiques prend une place grandissante comme solution pour protéger les renseignements personnels. Pour assurer leur fiabilité en termes de confidentialité tout en préservant leur qualité inférentielle, il s'avère utile d'employer des méthodes de génération de données synthétiques (SDG) contrôlant explicitement leur proximité aux données originales. Une technique novatrice alliant l'imputation et le masquage, nommée DA-MI, a été proposée pour générer des données partiellement synthétiques. Ce mémoire s'intéresse à l'applicabilité de la méthode pour créer des données complètement synthétiques. On étudie notamment l'effet concret des paramètres de masquage à sélectionner dans DA-MI sur l'utilité statistique et le niveau de protection atteint. Premièrement, la méthode a été implémentée. La librairie robosynth a été retenue parmi les options étudiées. Deuxièmement, des mesures d'utilité, soit la distance de Hellinger, le pMSE et la différence de moyennes de chaque variable, ont confirmé qu'un masquage plus grand est associé à une diminution de la qualité des données. En contrepartie, la protection est améliorée, telle que mesurée par le TMR et le taux d'observations cachées. Même avec des données complètement synthétiques, l'équilibre entre utilité et risque reste acceptable. L'utilité est légèrement inférieure à synthpop, une méthode plus classique de SDG, alors que la protection est supérieure. Finalement, les résultats relatifs à la divulgation d'attributs ont mené à une étude plus approfondie de ce qui constitue une divulgation. Traditionnellement, des mesures basées sur la prévision sont utilisées. Toutefois, ce travail a mis en évidence certaines lacunes de cette approche. D'abord, ces mesures capturent en partie les relations entre les variables, ce qui ne devrait pas toujours être interprété comme une divulgation. De plus, même si certaines observations sont protégées par la synthétisation, d'autres deviennent plus à risque, de manière apparemment imprévisible. Des pistes de solution pour mieux quantifier le risque sont ultimement offertes. / The use of synthetic data grows more and more as a solution to protect personal information. To ensure their reliability in terms of confidentiality while maintaining inferential quality, it is helpful to use synthetic data generation (SDG) methods that explicitly control the proximity to the original data. A novel technique combining imputation and masking, called DA-MI, was proposed to generate partially synthetic data. This thesis is interested in the applicability of the method to create completely synthetic data. Notably, the effect of the masking parameters to choose in DA-MI on statistical utility and the achieved protection level is studied. Firstly, the method was implemented. The robosynth library was chosen among other options. Secondly, utility measures, namely the Hellinger distance, the pMSE and the difference in means for every variable, confirmed that greater masking is associated with a lowering of the data quality. In return, the protection is higher, as measured by the TMR and the hidden rate of observations. Even with completely synthetic data, the balance between utility and risk is acceptable. The utility is slightly lower than synthpop, a more traditional SDG method, while the protection is superior. Finally, results concerning attribute disclosure led to a deeper study of what constitutes a disclosure. Traditionally, measures based on prediction are used. However, this work shed light on some gaps in the approach. First, these measures capture at least partially the relations between variables, which should not always be interpreted as being disclosive. Furthermore, even if some observations are protected by the synthesis, others become more at risk, in a manner that is seemingly unpredictable. Potential solutions to better quantify the risk are ultimately offered.
|
2 |
La protection des renseignements personnels du consommateur dans un système bancaire ouvert : étude comparative entre le droit canadien et le droit québécois ainsi que le droit de l'Union européenne et le droit françaisRakotomandimby, Lauriane 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 12 octobre 2023) / Dans un marché bancaire oligopolistique, marqué par un nombre limité d'institutions bancaires et financières offrant des services bancaires de plus en plus innovants et attractifs à une quantité innombrable de consommateurs, le système bancaire ouvert a engendré la multiplicité de ces services, grâce aux entreprises de technologie financière qui se présentent comme des concurrentes de taille face aux banques traditionnelles. Désormais, le consommateur peut procéder à des transactions électroniques, dont celles relatives au paiement ou au transfert électronique de fonds, sans devoir passer au comptoir de sa banque traditionnelle. Depuis la mise en place du Règlement général sur la protection des données et de la Directive révisée sur les services de paiement au niveau de l'Union européenne, les entreprises commerciales peuvent avoir accès aux renseignements personnels, dont les données financières des clients de banques, notamment pour initier un paiement, par le truchement des interfaces de programmation d'applications. Toutefois, le traitement des renseignements personnels des consommateurs par les entreprises commerciales augmente le risque de vol d'identité, étant donné la présence d'une quantité impressionnante de données sur le Web, sans un contrôle adéquat pour en assurer la confidentialité. Les conséquences d'une fuite de ces données sont pourtant non négligeables, aussi bien à l'égard de la banque, de la personne concernée que de l'État qui doit en assurer une protection optimale. Devant ce phénomène où le consommateur est vulnérable, l'État intervient pour le protéger et contrebalancer le déséquilibre dans sa relation contractuelle avec les prestataires de services financiers. / Thanks to fintechs, the open banking has enabled a large amount of innovative and interesting services to consumers. From now on, consumers can carry out various electronic transactions, including those related to payment or electronic funds transfer, without having to join physically bank counters. As the General Data Protection Regulation and the Revised Payment Services Directive in the European Union have been implemented, fintechs have access to personal informations, including informations of bank customers, particularly in initiating a payment, through application programming interfaces. However, making consumers personal informations available to fintechs increases the risk of identity theft, given the presence of an impressive amount of data on the Web, without adequate control to ensure their privacy. Additionally, the outcomes of a data leak are not to be neglected, both with regard to the bank, the involved individual and the State in charge of ensuring optimal protection. Due to this phenomenon which makes consumers vulnerable, the State has to protect them and to compensate the imbalance in the contract with fintechs.
|
3 |
Attaque de divulgation d'attributs basée sur une attaque d'appartenance par inférence : technique des modèles fantômesMbodj, Mamadou 01 December 2023 (has links)
Titre de l'écran-titre (visionné le 28 novembre 2023) / Ce mémoire traite de la problématique liée à la confidentialité des données, particulièrement des risques de divulgations de données utilisées pour entraîner un modèle d'apprentissage statistique. En effet, face aux contraintes liées à la protection des données personnelles, plusieurs techniques sont proposées et utilisées par les chercheurs et organisations afin de parvenir à avoir des résultats de modèles sans violer la vie privée des individus sur lesquelles ces modèles sont entraînés. Nous prenons l'exemple de l'outil DataSHIELD qui offre la possibilité de sortir des résultats, jugés sécuritaires après être passés par un ensemble de contrôles, sans donner accès aux micro-données. Cependant, ces outils de contrôle du risque de divulgation de la vie privée restent encore vulnérables face aux attaques d'individus malintentionnés. Nous proposons dans ce mémoire des algorithmes d'attaque d'attributs qui, à partir des résultats d'un modèle, permettent de découvrir des informations précises et souvent sensibles sur les individus qui ont été utilisés pour entraîner le modèle. Certains de ces algorithmes d'attaque d'attributs sont basés sur des modèles d'attaques d'appartenance par inférence avec la méthode des modèles fantômes proposées par Shokri et al. (2017). Ce type d'algorithme a déjà été proposé dans la littérature par Zhao et al. (2021). Mais les auteurs ne sont pas arrivés à en démontrer l'efficacité car ils ont obtenu une faible différence en comparant le taux de succès de l'attaque observé sur les données membres et celui observé sur les données non membres. D'autres de nos algorithmes sont basés sur les modèles d'attaque d'appartenance précités et sur des méthodes d'imputations multivariées par équations chaînées (méthode MICE). Nous considérons cette méthode comme une façon dont un adversaire peut procéder pour faire une attaque d'attributs en passant par l'imputation MICE et une attaque d'appartenance avec modèles fantômes ; et nous l'appelons « MICE avec modèles fantômes ». Cette méthode est une contribution nouvelle que nous proposons et qui se trouve d'ailleurs être plus efficace que la première en évaluant le taux de succès. En fait, nous avons testé ces algorithmes sur deux jeux de données (« adult » et « Texas-100X ») et les résultats obtenus ont démontré, d'une part, leur efficacité à divulguer des informations sur les individus ciblés et, d'autre part, que la méthode utilisant l'imputation est plus efficace à découvrir la bonne information car celle-ci a eu des taux de succès plus élevés. / This document addresses the issue of data confidentiality, particularly the risks of disclosure of data used to train a statistical learning model. In fact, faced with the constraints of data protection, several techniques have been proposed and used by researchers and organizations to obtain model results without violating the privacy of the individuals on whom these models are trained. We take the example of the DataSHIELD tool, which offers the possibility of outputting results judged to be safe after passing through a set of controls, without giving access to the micro-data. However, these tools for controlling the risk of privacy disclosure are still vulnerable to attacks by malicious individuals. In this thesis, we propose attribute attack algorithms which, based on the results of a model, can uncover precise and often sensitive information about the individuals who were used to train the model. Some of these attribute attack algorithms are based on inference-based membership attack models with the shadow model method proposed by Shokri et al. (2017). This type of algorithm has already been proposed in the literature by Zhao et al (2021). However, the authors were unable to demonstrate its effectiveness because they obtained a small difference between the attack success rate observed on member data and that observed on non-member data. Other of our algorithms are based on the above membership attack models and on multivariate imputation methods using chained equations (MICE method). We regard this method as a way for an adversary to carry out an attribute attack via MICE imputation and a membership attack with shadow models; and we call it "MICE with shadow models". This method is a new contribution that we propose, and one that is more effective than the first in terms of success rate. In fact, we tested these algorithms on two datasets ("adult" and "Texas-100X") and the results obtained demonstrated, firstly, their effectiveness in disclosing information about the targeted individuals and, secondly, that the method using imputation was more effective in discovering the right information, as it had higher success rates.
|
4 |
Sécurisation du contrôle d'accès pour des documents XMLDang Ngoc, François 15 February 2006 (has links) (PDF)
La baisse de confiance accordée aux serveurs traditionnels de bases de données et aux hébergeurs de bases de données (Database Service Providers) ainsi que l'intérêt croissant pour la distribution sélective de données sont différents facteurs qui amènent à migrer le contrôle d'accès du serveur vers les terminaux clients. Plusieurs schémas de chiffrement et de dissémination de clés ont été proposés dans ce but mais en compilant les règles de contrôle d'accès dans le processus de chiffrement, ils imposent tous un partage statique des données. L'apparition de composants matériels sécurisés sur divers terminaux clients permet de lever cette limitation en permettant de concevoir de nouveaux schémas dynamiques de contrôle d'accès sur le client. Cette thèse présente un évaluateur sécurisé de politiques de contrôle d'accès flexibles et dynamiques sur des documents XML. Cet évaluateur est embarqué dans un composant matériel sécurisé et doit par conséquent s'adapter à des contraintes matérielles spécifiques. Il tire pour cela parti d'un index dédié pour converger rapidement vers les parties autorisées d'un document arrivant éventuellement en flux sur le terminal client. Des mécanismes supplémentaires de sécurité garantissent que le document d'entrée est protégé contre toute forme de modification illicite et d'attaque de rejeu. La viabilité de notre approche est montrée dans divers contextes applicatifs sur des cartes à puces actuelles et est validée par des mesures de performance.
|
5 |
Confidentialité de données dans les systèmes P2PJawad, Mohamed 29 June 2011 (has links) (PDF)
Les communautés en ligne pair-a-pair (P2P), comme les communautés professionnelles (p. ex., médicales ou de recherche) deviennent de plus en plus populaires a cause de l'augmentation des besoins du partage de données. Alors que les environnements P2P offrent des caractéristiques intéressantes (p. ex., passage a l'échelle, disponibilité, dynamicité), leurs garanties en termes de protection des données sensibles sont limitées. Ils peuvent être considérés comme hostiles car les données publiées peuvent être consultées par tous les pairs (potentiellement malicieux) et utilisées pour tout (p. ex., pour le commerce illicite ou tout simplement pour des activités contre les préférences personnelles ou éthiques du propriétaire des données). Cette thèse propose un service qui permet le partage de données sensibles dans les systèmes P2P, tout en assurant leur confidentialité. La première contribution est l'analyse des techniques existant pour la confidentialité de données dans les architectures P2P. La deuxième contribution est un modèle de confidentialité, nommé PriMod, qui permet aux propriétaires de données de spécifier leurs préférences de confidentialité dans de politiques de confidentialité et d'attacher ces politiques a leurs données sensibles. La troisième contribution est le développement de PriServ, un service de confidentialité, basé sur une DHT qui met en oeuvre PriMod afin de prévenir la violation de la confidentialité de données. Entre autres, PriServ utilise de techniques de confiance pour prédire le comportement des pairs.
|
6 |
La protection des données de bien-être face aux objets connectés du secteur privéRadman, Elisa 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 2 mai 2023) / Les objets connectés sont des technologies massivement appréciées par notre société. Souvent utilisés à des fins de loisirs, ils permettent aux personnes de mesurer et d'évaluer leurs capacités physiques, mentales et la qualité de leur mode vie de façon autonome. Les données collectées par ces technologies sont multiples et sont relatives au corps humain de la personne, comme le nombre de pas, le nombre de calories brûlées ou encore, le nombre d'heures de sommeil. Seulement, bien que révélatrices d'informations sur la santé des personnes, ce type de données n'est pas considéré par les législations européennes et canadiennes comme des données de santé, mais plutôt comme de simples données à caractère personnel. La doctrine leur attribue le nom de « donnée de bien-être », notion inexistante en droit positif. Néanmoins, apparaît depuis plusieurs années des discussions autour de la protection des données de bien-être. Doivent-elles être considérées comme des données de santé ? Sont-elles voisines de celles-ci ? Le régime de protection actuel est-il efficace ? L'objectif de ce mémoire est de se pencher sur ces questions et de trouver de nouvelles solutions à la protection des données de bien-être au regard du danger qu'elles représentent sur la vie privée des individus.
|
7 |
The evolution of privacy regulation : convergence and divergence in the transatlantic spaceBeaumier, Guillaume 13 December 2023 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada et University of Warwick, Coventry, Royaume-uni. / Cette thèse porte sur l'évolution des réglementations relatives à la protection de la vie privée dans l'espace transatlantique de 1995 à 2016. Elle examine plus spécifiquement comment les règles régissant l'utilisation des données personnelles par des entreprises privées aux États-Unis et dans l'Union européenne ont été constituées au fil des interactions entre des acteurs publics et privés au sein de ces deux juridictions. Jusqu'à maintenant, les études s'intéressant à l'évolution de cadres réglementaires nationaux avaient tendance à les présenter comme des unités d'analyse indépendantes. Bien que pouvant s'influencer, notamment par le biais de négociations interétatiques, leur processus décisionnel était vu comme fondamentalement distinct. Le point de départ de cette thèse est différent. Ma recherche met de l'avant que le nombre croissant d'interactions entre des acteurs répartis dans différentes juridictions créent un environnement réglementaire complexe qui affecte les processus de création et d'adoption de règles à travers deux principaux mécanismes: l'exploitation et l'exploration. Le premier maintient que les acteurs publics et privés adoptant des règles en matière de protection des données privées auront tendance à exploiter celles d'acteurs avec qui ils ont précédemment interagis; le deuxième soutient que lorsque ces règles apparaissent comme insuffisantes ces acteurs innovent en se basant sur ces mêmes interactions. La constitution des règles en matière de protection des données privées est ainsi toujours comprise en terme relationnel ou systémique, plutôt que comme un processus individuel. Sur la base d'un mélange d'analyse de contenu et de réseau, je démontre plus précisément que les acteurs privés en Europe et aux États-Unis sont devenus des vecteurs de convergence réglementaire en exploitant les règles de leurs partenaires. Je souligne de plus que ces mêmes acteurs privés ont participé à la création de nouvelles règles en matière de protection des données privées en s'inspirant de leurs précédentes interactions. J'explique cependant qu'en créant de la fragmentation, la multiplication de réglementations a limité l'intérêt d'acteurs privés à innover et créer nouvelles règles. En plus de contribuer à la littérature sur la vie privée et d'introduire une nouvelle base de données sur les règles de protection des données adoptées au cours des 20 dernières années dans la zone transatlantique, cette thèse met en évidence comment l'interdépendance économique bouleverse les processus réglementaires nationaux et remet en question de nombreuses frontières prises pour acquises en économie politique internationale. / This thesis explores the evolution of privacy regulations in the transatlantic space since the adoption of the European Data Directive in 1995 up until the adoption of the General Data Protection Regulation in 2016. In doing so, it more specifically investigates how the rules governing the use of personal data by private companies in the United States and the European Union were formed through the interactions between public and private actors in both jurisdictions. Looking at the process of rule formation, previous works have traditionally viewed national regulatory systems as discrete units of analysis that could affect one another and yet always remained fundamentally distinct. The starting point of this thesis is different. It considers that each jurisdiction's regulatory process is continuously shaped by decisions taken in the other and that through their interactions they actually form a complex governance system that evolves based on two joint processes: exploitation and exploration. The former emphasizes that privacy regulators will generally tend to exploit the data protection rules of those with whom they previously had direct interactions. Meanwhile, the latter highlights that when preexisting rules prove to be insufficient, privacy regulators will explore new ones based on the very same interactions and relation to the broader system. The formation of data protection rules is thus always understood in relational or systemic terms, rather than an individual process. Based on a mix of content and network analysis, I further demonstrate that by exploiting preexisting rules private actors offered a new institutional avenue for public rules to cross national frontiers and promote greater regulatory convergence. At the same time, the multiplication of privacy regulations and data protection rules adopted by private actors created second-order information asymmetries, which in turn limited their interest in exploring new ideas and experimenting with new data protection rules. In addition to contributing to the literature on privacy and introducing a novel database on data protection rules adopted over the last 20 years in the transatlantic area, this thesis highlights how growing economic interdependence upends national regulatory processes and brings into question many of the assumed boundaries in the study of international political economy.
|
8 |
Création d'un jeu de données synthétiques pour des données de santéOuffy, Oumaima 21 November 2023 (has links)
Les données récoltées sur des individus sont souvent difficiles à partager avec les chercheurs et à publier à cause des informations confidentielles qu'elles contiennent. Une solution qu'on peut faire pour faciliter l'accès à ces données est de créer un jeu de données synthétiques à partager avec les chercheurs. Ce jeu de données aurait les mêmes caractéristiques du jeu de données originales mais ne permettrait pas de révéler les informations confidentielles sur les participants. Nous étudions dans ce mémoire les enjeux techniques liés à la création des jeux de données synthétiques dans le domaine de la santé. Il faut notamment s'assurer que les modèles statistiques utilisés pour générer des données synthétiques soient assez flexibles pour bien modéliser les corrélations entre les variables collectées, tout en s'assurant de ne pas sur-ajuster ces modèles, ce qui pourrait nuire à la protection de la confidentialité. Le travail s'articulera autour de la création d'un jeu synthétique pour un sous-ensemble des données collectées par le Consortium d'identification précoce de la maladie d'Alzheimer - Québec (CIMA-Q), pour qui le partage des données à la communauté de recherche sur la maladie d'Alzheimer canadienne et internationale est un objectif important. / Data collected on individuals is often difficult to share with researchers and publish because of the confidential information it contains. A possible solution to facilitate the access to this data is to create a synthetic data set to share with researchers. This dataset would have the same characteristics of the original dataset but would not reveal the confidential information about the participants. We study here the technical issues related to the creation of such synthetic datasets in the health field. In particular, it must be ensured that the statistical models used are flexible enough to properly model the correlations between the variables collected, while making sure not to over-adjust them, which could harm the protection of confidentiality. The work will focus on the creation of a synthetic data for a subset of the data collected by the Consortium of Early Identification of Alzheimer's disease - Quebec (CIMA-Q), for whom the sharing of data with the community of Canadian and international Alzheimer's disease research is an important goal.
|
9 |
La confiance suscitée par les mécanismes de mutualisation des données personnelles de santé aux fins de recherche : analyse comparée de systèmes français et québécoisMonnerais, Ileana 16 December 2024 (has links)
Ces dernières années, l'intelligence artificielle a connu un essor important. Elle a naturellement trouvé sa place dans le domaine médical où ses applications semblent prometteuses. Le fonctionnement de cette technologie nécessite toutefois de nombreuses données dont certaines touchent à la sphère la plus intime de l'individu : les « données personnelles de santé ». Le partage de celles-ci est indispensable pour faire progresser la recherche en santé. Il doit tout de même être encadré afin de protéger la vie privée de chacun. La France et le Québec sont déterminés à soutenir ces nouvelles utilisations et accroître la valorisation informationnelle des renseignements de santé. Ils ont instauré un cadre législatif complexe destiné à assurer l'équilibre entre ouverture et protection. L'effectivité de ces normes dépend en partie de la confiance qu'elles sont capables d'inspirer aux individus. En effet, ceux-ci consentiront à partager des renseignements complets, de qualité, et donc, utilisables à des fins de recherche, seulement s'ils sont assurés de la protection de leurs droits. Le présent mémoire s'attache ainsi à examiner les procédures de mutualisation mises en place dans les systèmes français et québécois. Il s'agira de mettre en avant leur capacité à atteindre l'équilibre recherché et instaurer un climat de confiance au travers notamment du principe de transparence. / Artificial intelligence has seen a significant rise in recent years. It has naturally found its place in the medical field where its applications seem promising. However, in order to be effective, this technology requires a lot of data, some of them touch the most intimate sphere of the individual: "personal health data". Sharing them is essential to promote health research that is being done using this tool. Nevertheless, this sharing must be monitored in order to protect everyone's privacy. France, as Quebec, are actively committed to supporting these new uses and increasing the informational value of personal health information. They set up a complex legislative framework to ensure the balance between sharing and protection. The effectiveness of this framework depends on the trust these rules are able to inspire to individuals. Indeed, they will not agree to share a complete information unless their rights are guaranteed to be protected. This thesis examines the mutualization procedures implemented in the French and Quebec systems. It highlights their ability to achieve this balance and to establish a climate of trust through, inter alia, the principle of transparency.
|
10 |
Les enjeux de la monétisation des données à caractère personnel dans un contexte de valorisation économique de ces donnéesMartin, Joris 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 2 mai 2023) / L'avènement du monde numérique a sans nul doute, constitué l'une des avancées les plus incroyable et les plus soudaine que notre monde n'ait jamais rencontrée. Les avancées technologiques ont en effet permis une multitude de bienfaits, que ce soit au niveau de l'accès aux soins médicaux, afin d'accéder à la culture, de nous connecter avec les autres, de découvrir le monde... Néanmoins, certains acteurs ont profité de ce bouleversement, et des transformations, que le numérique a apporté, sur notre mode consommation, d'interaction, et plus généralement, de notre mode de vie, dans l'optique de générer des profits. En effet, qui dit transformation du monde, induit nouvelles opportunités financières et pécuniaires, pour qui sauront les saisir. C'est le cas de certains nouveaux acteurs issus de ce monde numérique, qu'il est désormais courant de nommer les GAFA. En effet, la progressive digitalisation de notre monde provoque de façon mécanique un basculement de nos habitudes de vie, sur supports numériques. Dès lors, notre passage sur le digital se verra être jonché de traces que nous laissons, que se soit dans le cadre d'une recherche internet, d'un achat sur un site de e-commerce, ou encore par le bais de nos outils qui nécessitent le recours à une connexion internet, plus communément appelés les nouveaux objets connectés. Néanmoins, cette réalité pose un problème de taille, celui de la vie privée, et de sa protection. En effet, le basculement sur ce nouveau monde numérique plein de promesses, va de pair avec une mise à disposition de nos données personnelles, données qui traduisent qui nous sommes, et ce que nous faisons. Dès lors, certains de ces nouveaux acteurs économiques issus du monde numérique ont pris pleinement conscience du potentiel économique que ces données personnelles revêtent, incitant même certaines de ces entreprises à mettre en place un système économique intégralement basé sur leur exploitation. Ces différentes pratiques sont souvent qualifiées d'attentatoires pour notre vie privée, et ont poussés certains penseurs et acteurs du numérique à considérer que nos cadres juridiques en la matière étaient devenus quelque peu obsolètes. À cet effet, une partie de la doctrine estime que nos données personnelles devraient être entièrement sous notre contrôle, par le biais d'un régime juridique mieux adapté à notre époque, en l'espèce le régime de la patrimonialisation des données personnelles, qu'il conviendra d'analyser dans le cadre de ce mémoire de recherche.
|
Page generated in 0.0858 seconds