Letteratura scientifica selezionata sul tema "K-Anonymisation"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "K-Anonymisation".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "K-Anonymisation":

1

Loukides, Grigorios, e Jian-Hua Shao. "An Efficient Clustering Algorithm for k-Anonymisation". Journal of Computer Science and Technology 23, n. 2 (marzo 2008): 188–202. http://dx.doi.org/10.1007/s11390-008-9121-3.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Natwichai, Juggapong, Xue Li e Asanee Kawtrkul. "Incremental processing and indexing for (k, e)-anonymisation". International Journal of Information and Computer Security 5, n. 3 (2013): 151. http://dx.doi.org/10.1504/ijics.2013.055836.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Stark, Konrad, Johann Eder e Kurt Zatloukal. "Achieving k-anonymity in DataMarts used for gene expressions exploitation". Journal of Integrative Bioinformatics 4, n. 1 (1 marzo 2007): 132–44. http://dx.doi.org/10.1515/jib-2007-58.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract Gene expression profiling is a sophisticated method to discover differences in activation patterns of genes between different patient collectives. By reasonably defining patient groups from a medical point of view, subsequent gene expression analysis may reveal disease-related gene expression patterns that are applicable for tumor markers and pharmacological target identification. When releasing patient-specific data for medical studies privacy protection has to be guaranteed for ethical and legal reasons. k-anonymisation may be used to generate a sufficient number of k data twins in order to ensure that sensitive data used in analyses is protected from being linked to individuals. We use an adapted concept of k-anonymity for distributed data sources and include various customisation parameters in the anonymisation process to guarantee that the transformed data is still applicable for further processing. We present a real-world medical-relevant use case and show how the related data is materialised, anonymised, and released in a data mart for testing the related hypotheses.
4

de Haro-Olmo, Francisco José, Ángel Jesús Varela-Vaca e José Antonio Álvarez-Bermejo. "Blockchain from the Perspective of Privacy and Anonymisation: A Systematic Literature Review". Sensors 20, n. 24 (14 dicembre 2020): 7171. http://dx.doi.org/10.3390/s20247171.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The research presented aims to investigate the relationship between privacy and anonymisation in blockchain technologies on different fields of application. The study is carried out through a systematic literature review in different databases, obtaining in a first phase of selection 199 publications, of which 28 were selected for data extraction. The results obtained provide a strong relationship between privacy and anonymisation in most of the fields of application of blockchain, as well as a description of the techniques used for this purpose, such as Ring Signature, homomorphic encryption, k-anonymity or data obfuscation. Among the literature researched, some limitations and future lines of research on issues close to blockchain technology in the different fields of application can be detected. As conclusion, we extract the different degrees of application of privacy according to the mechanisms used and different techniques for the implementation of anonymisation, being one of the risks for privacy the traceability of the operations.
5

Zhang, Yuliang, Tinghuai Ma, Jie Cao e Meili Tang. "K-anonymisation of social network by vertex and edge modification". International Journal of Embedded Systems 8, n. 2/3 (2016): 206. http://dx.doi.org/10.1504/ijes.2016.076114.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Ganabathi, G. Chitra, e P. Uma Maheswari. "Efficient clustering technique for k-anonymisation with aid of optimal KFCM". International Journal of Business Intelligence and Data Mining 15, n. 4 (2019): 430. http://dx.doi.org/10.1504/ijbidm.2019.102809.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Singh, Amardeep, Monika Singh, Divya Bansal e Sanjeev Sofat. "Optimised K-anonymisation technique to deal with mutual friends and degree attacks". International Journal of Information and Computer Security 14, n. 3/4 (2021): 281. http://dx.doi.org/10.1504/ijics.2021.114706.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Sofat, Sanjeev, Divya Bansal, Monika Singh e Amardeep Singh. "Optimised K-anonymisation technique to deal with mutual friends and degree attacks". International Journal of Information and Computer Security 14, n. 3/4 (2021): 281. http://dx.doi.org/10.1504/ijics.2021.10037248.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Yaji, Sharath, e B. Neelima. "Parallel computing for preserving privacy using k-anonymisation algorithms from big data". International Journal of Big Data Intelligence 5, n. 3 (2018): 191. http://dx.doi.org/10.1504/ijbdi.2018.092659.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Yaji, Sharath, e B. Neelima.B. "Parallel computing for preserving privacy using k-anonymisation algorithms from big data". International Journal of Big Data Intelligence 5, n. 3 (2018): 191. http://dx.doi.org/10.1504/ijbdi.2018.10008733.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "K-Anonymisation":

1

Mauger, Clémence. "Optimisation de l'utilité des données lors d'un processus de k-anonymisation". Electronic Thesis or Diss., Amiens, 2021. http://www.theses.fr/2021AMIE0076.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour donner des garanties de protection de la vie privée aux bases de données anonymisées, des modèles d'anonymisation ont vu le jour ces dernières décennies. Parmi ceux-ci, on peut citer la k-anonymité, la l-diversité, la t-proximité ou encore la confidentialité différentielle. Dans cette thèse, je me suis intéressée au modèle de k-anonymité à travers une analyse approfondie des manières de produire des bases remplissant ces critères de confidentialité tout en optimisant l'utilité des données. Partant d'une base de données, on peut en effet construire plusieurs versions k-anonymes de cette base. Certaines de ces versions k-anonymes comportent moins de modifications des données que les autres et maintiennent ainsi une meilleure utilité des données lors de leur publication. Mes travaux proposent une étude de l'optimisation de l'utilité des données lors du processus de k-anonymisation d'une base. Dans un premier temps, j'ai étudié des métriques de perte d'information permettant d'estimer la quantité d'information perdue dans une table lors d'un processus de k-anonymisation. Les métriques ont été utilisées dans un algorithme de k-anonymisation pour guider les fusions de classes d'équivalence menant à la production d'une table k-anonyme. J'ai tâché de dégager de cette étude des caractéristiques dans les définitions des métriques de perte d'information permettant de produire des tables k-anonymes de bonne qualité au regard de plusieurs critères. Dans un second temps, je me suis intéressée à la répartition des données sensibles dans les tables k-anonymes grâce aux modèles de l-diversité et de t-proximité. Plus précisément, j'ai proposé des stratégies d'optimisation mêlant métrique de perte d'information, l-diversité et t-proximité à utiliser dans un algorithme de k-anonymisation. L'objectif a été de maintenir de bons niveaux de l-diversité et de t-proximité dans les tables k-anonymes produites sans sacrifier l'utilité des données. Dans un troisième temps, je suis revenue sur la formulation du problème de k-anonymisation d'une table. Je me suis appuyée sur une nouvelle notion, les groupes de généralisation, pour énoncer le problème de k-anonymisation d'une table en fonction de la matrice d'incidence d'un hypergraphe. Grâce à cette nouvelle représentation, j'ai proposé une procédure ainsi que cinq algorithmes permettant de construire une table k-anonyme par partitionnement des classes d'équivalence d'une table k'-anonyme avec k'>= k. Des expérimentations menées sur deux tables publiques ont montré que les algorithmes proposés surpassent les performances de l'algorithme de k-anonymisation utilisé précédemment en termes de préservation d'information
So that providing privacy guarantees to anonymized databases, anonymization models have emerged few decades ago. Among them, you can find k-anonymity, l-diversity, t-proximity or differential confidentiality. In this thesis, we mainly focused on the k-anonymity model through an in-depth analysis of the ways to produce databases that meet these confidentiality criteria while optimizing data utility. From a table, you can consider the set of its k-anonymous versions, which can be of exponential cardinality according to k. In a vacuum, these k-anonymous versions can be scored thanks to the amount of data modification that is correlated to the data utility. Thus, this work proposes a study of how to optimize the data utility during the process of k-anonymizing a database.First, we studied information loss metrics to estimate the amount of information lost in a table during a k-anonymization process. The metrics were used within a k-anonymization algorithm to guide equivalence class mergers leading to the production of a k-anonymous table. We tried to identify from this study characteristics in the definitions of information loss metrics allowing the production of good quality k-anonymous tables with regard to several criteria.Second, we were interested in the distribution of sensitive data into k-anonymous tables by using l-diversity and t- proximity models. More specifically, we proposed optimization strategies combining information loss metrics, l-diversity and t-proximity to be used during a k-anonymization process. The aim was then to preserv good levels of l-diversity and t-proximity of the k-anonymous tables produced, and this without sacrificing the data utility.Third, we tackled the question of the formulation of the problem of k-anonymization of a table. We relied on the original notion of generalization groups, to state the problem of k-anonymization of a table according to the incidence matrix of its associated hypergraph. Thanks to this new representation, we proposed an original procedure, declined to five algorithms, allowing to build a k-anonymous table by partitioning the equivalence classes of a k’-anonymous table with k′ >= k. Experiments carried out on two public tables have shown that the proposed algorithms outperfom the k-anonymization algorithm used previously in terms of information preservation
2

Verster, Cornelis Thomas. "On supporting K-anonymisation and L-diversity of crime databases with genetic algorithms in a resource constrained environment". Master's thesis, University of Cape Town, 2015. http://hdl.handle.net/11427/20016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The social benefits derived from analysing crime data need to be weighed against issues relating to privacy loss. To facilitate such analysis of crime data Burke and Kayem [7] proposed a framework (MCRF) to enable mobile crime reporting in a developing country. Here crimes are reported via mobile phones and stored in a database owned by a law enforcement agency. The expertise required to perform analysis on the crime data is however unlikely to be available within the law enforcement agency. Burke and Kayem [7] proposed anonymising the data(using manual input parameters) at the law enforcement agency before sending it to a third party for analysis. Whilst analysis of the crime data requires expertise, adequate skill to appropriately anonymise the data is also required. What is lacking in the original MCRF is therefore an automated scheme for the law enforcement agency to adequately anonymise the data before sending it to the third party. This should, however, be done whilst maximising information utility of the anonymised data from the perspective of the third party. In this thesis we introduce a crime severity scale to facilitate the automation of data anonymisation within the MCRF. We consider a modified loss metric to capture information loss incurred during the anonymisation process. This modified loss metric also gives third party users the flexibility to specify attributes of the anonymised data when requesting data from the law enforcement agency. We employ a genetic algorithm(GA) approach called "Crime Genes"(CG) to optimise utility of the anonymised data based on our modified loss metric whilst adhering to notions of privacy denned by k-anonymity and l-diversity. Our CG implementation is modular and can therefore be easily integrated with the original MCRF. We also show how our CG approach is designed to be suitable for implementation in a developing country where particular resource constraints exist.
3

Sondeck, Louis-Philippe. "Privacy and utility assessment within statistical data bases". Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0023/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les données personnelles sont d’une importance avérée pour presque tous les secteurs d’activité économiques grâce à toute la connaissance qu’on peut en extraire. Pour preuve, les plus grandes entreprises du monde que sont: Google, Amazon, Facebook et Apple s’en servent principalement pour fournir de leurs services. Cependant, bien que les données personnelles soient d’une grande utilité pour l’amélioration et le développement de nouveaux services, elles peuvent aussi, de manière intentionnelle ou non, nuire à la vie privée des personnes concernées. En effet, plusieurs études font état d’attaques réalisées à partir de données d’entreprises, et ceci, bien qu’ayant été anonymisées. Il devient donc nécessaire de définir des techniques fiables, pour la protection de la vie privée des personnes tout en garantissant l’utilité de ces données pour les services. Dans cette optique, l’Europe a adopté un nouveau règlement (le Règlement Général sur la Protection des Données) (EU, 2016) qui a pour but de protéger les données personnelles des citoyens européens. Cependant, ce règlement ne concerne qu’une partie du problème puisqu’il s’intéresse uniquement à la protection de la vie privée, alors que l’objectif serait de trouver le meilleur compromis entre vie privée et utilité des données. En effet, vie privée et utilité des données sont très souvent inversement proportionnelles, c’est ainsi que plus les données garantissent la vie privée, moins il y reste d’information utile. Pour répondre à ce problème de compromis entre vie privée et utilité des données, la technique la plus utilisée est l’anonymisation des données. Dans la littérature scientifique, l’anonymisation fait référence soit aux mécanismes d’anonymisation, soit aux métriques d’anonymisation. Si les mécanismes d’anonymisation sont utiles pour anonymiser les données, les métriques d’anonymisation sont elles, nécessaires pour valider ou non si le compromis entre vie privée et utilité des données a été atteint. Cependant, les métriques existantes ont plusieurs défauts parmi lesquels, le manque de précision des mesures et la difficulté d’implémentation. De plus, les métriques existantes permettent de mesurer soit la vie privée, soit l’utilité des données, mais pas les deux simultanément; ce qui rend plus complexe l’évaluation du compromis entre vie privée et utilité des données. Dans cette thèse, nous proposons une approche nouvelle, permettant de mesurer à la fois la vie privée et l’utilité des données, dénommée Discrimination Rate (DR). Le DR est une métrique basée sur la théorie de l’information, qui est pratique et permet des mesures d’une grande finesse. Le DR mesure la capacité des attributs à raffiner un ensemble d’individus, avec des valeurs comprises entre 0 et 1; le meilleur raffinement conduisant à un DR de 1. Par exemple, un identifiant a un DR égale à 1 étant donné qu’il permet de raffiner complètement un ensemble d’individus. Grâce au DR nous évaluons de manière précise et comparons les mécanismes d’anonymisation en termes d’utilité et de vie privée (aussi bien différentes instanciations d’un même mécanisme, que différents mécanismes). De plus, grâce au DR, nous proposons des définitions formelles des identifiants encore appelés informations d’identification personnelle. Ce dernier point est reconnu comme l’un des problèmes cruciaux des textes juridiques qui traitent de la protection de la vie privée. Le DR apporte donc une réponse aussi bien aux entreprises qu’aux régulateurs, par rapport aux enjeux que soulève la protection des données personnelles
Personal data promise relevant improvements in almost every economy sectors thanks to all the knowledge that can be extracted from it. As a proof of it, some of the biggest companies in the world, Google, Amazon, Facebook and Apple (GAFA) rely on this resource for providing their services. However, although personal data can be very useful for improvement and development of services, they can also, intentionally or not, harm data respondent’s privacy. Indeed, many studies have shown how data that were intended to protect respondents’ personal data were finally used to leak private information. Therefore, it becomes necessary to provide methods for protecting respondent’s privacy while ensuring utility of data for services. For this purpose, Europe has established a new regulation (The General Data Protection Regulation) (EU, 2016) that aims to protect European citizens’ personal data. However, the regulation only targets one side of the main goal as it focuses on privacy of citizens while the goal is about the best trade-off between privacy and utility. Indeed, privacy and utility are usually inversely proportional and the greater the privacy, the lower the data utility. One of the main approaches for addressing the trade-off between privacy and utility is data anonymization. In the literature, anonymization refers either to anonymization mechanisms or anonymization metrics. While the mechanisms are useful for anonymizing data, metrics are necessary to validate whether or not the best trade-off has been reached. However, existing metrics have several flaws including the lack of accuracy and the complexity of implementation. Moreover existing metrics are intended to assess either privacy or utility, this adds difficulties when assessing the trade-off between privacy and utility. In this thesis, we propose a novel approach for assessing both utility and privacy called Discrimination Rate (DR). The DR is an information theoretical approach which provides practical and fine grained measurements. The DR measures the capability of attributes to refine a set of respondents with measurements scaled between 0 and 1, the best refinement leading to single respondents. For example an identifier has a DR equals to 1 as it completely refines a set of respondents. We are therefore able to provide fine grained assessments and comparison of anonymization mechanisms (whether different instantiations of the same mechanism or different anonymization mechanisms) in terms of utility and privacy. Moreover, thanks to the DR, we provide formal definitions of identifiers (Personally Identifying Information) which has been recognized as one of the main concern of privacy regulations. The DR can therefore be used both by companies and regulators for tackling the personal data protection issues
4

Sondeck, Louis-Philippe. "Privacy and utility assessment within statistical data bases". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0023.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les données personnelles sont d’une importance avérée pour presque tous les secteurs d’activité économiques grâce à toute la connaissance qu’on peut en extraire. Pour preuve, les plus grandes entreprises du monde que sont: Google, Amazon, Facebook et Apple s’en servent principalement pour fournir de leurs services. Cependant, bien que les données personnelles soient d’une grande utilité pour l’amélioration et le développement de nouveaux services, elles peuvent aussi, de manière intentionnelle ou non, nuire à la vie privée des personnes concernées. En effet, plusieurs études font état d’attaques réalisées à partir de données d’entreprises, et ceci, bien qu’ayant été anonymisées. Il devient donc nécessaire de définir des techniques fiables, pour la protection de la vie privée des personnes tout en garantissant l’utilité de ces données pour les services. Dans cette optique, l’Europe a adopté un nouveau règlement (le Règlement Général sur la Protection des Données) (EU, 2016) qui a pour but de protéger les données personnelles des citoyens européens. Cependant, ce règlement ne concerne qu’une partie du problème puisqu’il s’intéresse uniquement à la protection de la vie privée, alors que l’objectif serait de trouver le meilleur compromis entre vie privée et utilité des données. En effet, vie privée et utilité des données sont très souvent inversement proportionnelles, c’est ainsi que plus les données garantissent la vie privée, moins il y reste d’information utile. Pour répondre à ce problème de compromis entre vie privée et utilité des données, la technique la plus utilisée est l’anonymisation des données. Dans la littérature scientifique, l’anonymisation fait référence soit aux mécanismes d’anonymisation, soit aux métriques d’anonymisation. Si les mécanismes d’anonymisation sont utiles pour anonymiser les données, les métriques d’anonymisation sont elles, nécessaires pour valider ou non si le compromis entre vie privée et utilité des données a été atteint. Cependant, les métriques existantes ont plusieurs défauts parmi lesquels, le manque de précision des mesures et la difficulté d’implémentation. De plus, les métriques existantes permettent de mesurer soit la vie privée, soit l’utilité des données, mais pas les deux simultanément; ce qui rend plus complexe l’évaluation du compromis entre vie privée et utilité des données. Dans cette thèse, nous proposons une approche nouvelle, permettant de mesurer à la fois la vie privée et l’utilité des données, dénommée Discrimination Rate (DR). Le DR est une métrique basée sur la théorie de l’information, qui est pratique et permet des mesures d’une grande finesse. Le DR mesure la capacité des attributs à raffiner un ensemble d’individus, avec des valeurs comprises entre 0 et 1; le meilleur raffinement conduisant à un DR de 1. Par exemple, un identifiant a un DR égale à 1 étant donné qu’il permet de raffiner complètement un ensemble d’individus. Grâce au DR nous évaluons de manière précise et comparons les mécanismes d’anonymisation en termes d’utilité et de vie privée (aussi bien différentes instanciations d’un même mécanisme, que différents mécanismes). De plus, grâce au DR, nous proposons des définitions formelles des identifiants encore appelés informations d’identification personnelle. Ce dernier point est reconnu comme l’un des problèmes cruciaux des textes juridiques qui traitent de la protection de la vie privée. Le DR apporte donc une réponse aussi bien aux entreprises qu’aux régulateurs, par rapport aux enjeux que soulève la protection des données personnelles
Personal data promise relevant improvements in almost every economy sectors thanks to all the knowledge that can be extracted from it. As a proof of it, some of the biggest companies in the world, Google, Amazon, Facebook and Apple (GAFA) rely on this resource for providing their services. However, although personal data can be very useful for improvement and development of services, they can also, intentionally or not, harm data respondent’s privacy. Indeed, many studies have shown how data that were intended to protect respondents’ personal data were finally used to leak private information. Therefore, it becomes necessary to provide methods for protecting respondent’s privacy while ensuring utility of data for services. For this purpose, Europe has established a new regulation (The General Data Protection Regulation) (EU, 2016) that aims to protect European citizens’ personal data. However, the regulation only targets one side of the main goal as it focuses on privacy of citizens while the goal is about the best trade-off between privacy and utility. Indeed, privacy and utility are usually inversely proportional and the greater the privacy, the lower the data utility. One of the main approaches for addressing the trade-off between privacy and utility is data anonymization. In the literature, anonymization refers either to anonymization mechanisms or anonymization metrics. While the mechanisms are useful for anonymizing data, metrics are necessary to validate whether or not the best trade-off has been reached. However, existing metrics have several flaws including the lack of accuracy and the complexity of implementation. Moreover existing metrics are intended to assess either privacy or utility, this adds difficulties when assessing the trade-off between privacy and utility. In this thesis, we propose a novel approach for assessing both utility and privacy called Discrimination Rate (DR). The DR is an information theoretical approach which provides practical and fine grained measurements. The DR measures the capability of attributes to refine a set of respondents with measurements scaled between 0 and 1, the best refinement leading to single respondents. For example an identifier has a DR equals to 1 as it completely refines a set of respondents. We are therefore able to provide fine grained assessments and comparison of anonymization mechanisms (whether different instantiations of the same mechanism or different anonymization mechanisms) in terms of utility and privacy. Moreover, thanks to the DR, we provide formal definitions of identifiers (Personally Identifying Information) which has been recognized as one of the main concern of privacy regulations. The DR can therefore be used both by companies and regulators for tackling the personal data protection issues

Capitoli di libri sul tema "K-Anonymisation":

1

Loukides, Grigorios, Achilles Tziatzios e Jianhua Shao. "Towards Preference-Constrained k-Anonymisation". In Database Systems for Advanced Applications, 231–45. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-04205-8_20.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

"Graph Modification Approaches". In Security, Privacy, and Anonymization in Social Networks, 86–115. IGI Global, 2018. http://dx.doi.org/10.4018/978-1-5225-5158-4.ch005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This chapter contains some of the most recent techniques and algorithms on social network anonymisation. The authors start with the random perturbation algorithms like the UMGA algorithm and constrained perturbation algorithms like the fast k-degree anonymization (FKDA) algorithm. Then they move to the anonymisation technique, noise nodes addition, and present an algorithm based upon this approach. Next, the authors move on to α-anonymization, (α, k) anonymity, (α, l) diversity, and recursive (α, c, l) diversity anonymisation algorithms, which are generalisations in that order.

Atti di convegni sul tema "K-Anonymisation":

1

Loukides, Grigorios, e Jianhua Shao. "Capturing data usefulness and privacy protection in K-anonymisation". In the 2007 ACM symposium. New York, New York, USA: ACM Press, 2007. http://dx.doi.org/10.1145/1244002.1244091.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Loukides, Grigorios, e Jianhua Shao. "Greedy Clustering with Sample-Based Heuristics for K-Anonymisation". In The First International Symposium on Data, Privacy, and E-Commerce (ISDPE 2007). IEEE, 2007. http://dx.doi.org/10.1109/isdpe.2007.102.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Loukides, Grigorios, e Jianhua Shao. "Towards Balancing Data Usefulness and Privacy Protection in K-Anonymisation". In The Sixth IEEE International Conference on Computer and Information Technology (CIT'06). IEEE, 2006. http://dx.doi.org/10.1109/cit.2006.184.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Loukides, Grigorios, e Jianhua Shao. "Data utility and privacy protection trade-off in k-anonymisation". In the 2008 international workshop. New York, New York, USA: ACM Press, 2008. http://dx.doi.org/10.1145/1379287.1379296.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Tripathy, B. K., e Anirban Mitra. "An algorithm to achieve k-anonymity and l-diversity anonymisation in social networks". In 2012 Fourth International Conference on Computational Aspects of Social Networks (CASoN). IEEE, 2012. http://dx.doi.org/10.1109/cason.2012.6412390.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

de Reus, Pepijn, Ana Oprescu e Koen van Elsen. "Energy Cost and Machine Learning Accuracy Impact of k-Anonymisation and Synthetic Data Techniques". In 2023 International Conference on ICT for Sustainability (ICT4S). IEEE, 2023. http://dx.doi.org/10.1109/ict4s58814.2023.00015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia