Littérature scientifique sur le sujet « Profilage des données »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Profilage des données ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Profilage des données"

1

Nault, Geneviève, Émilie Couture-Glassco et Katharine Larose-Hébert. « Le mal caché de la rue : le poids de l’étiquette ». Reflets 22, no 1 (28 juillet 2016) : 56–82. http://dx.doi.org/10.7202/1037163ar.

Texte intégral
Résumé :
Cet article présente une analyse interactionniste du profilage social vécu par les personnes en situation d’itinérance. Les données sont issues d’une recherche communautaire en cours portant sur le profilage social à Gatineau, au Québec. Les données ont été recueillies auprès d’actrices et d’acteurs professionnels du milieu, notamment des intervenantes et intervenants et des gestionnaires d’organismes communautaires. Elles seront analysées à la lumière de la théorie de l’étiquetage de Becker (1985). En déterminant le contexte, les agentes et agents profileurs et les facteurs sous-jacents, il sera possible de cerner comment le processus d’étiquetage se manifeste dans le profilage social des personnes itinérantes.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Reys, Victor, et Gilles Labesse. « Profilage in silico des inhibiteurs de protéine kinases ». médecine/sciences 36 (octobre 2020) : 38–41. http://dx.doi.org/10.1051/medsci/2020182.

Texte intégral
Résumé :
Les protéine kinases ont été rapidement identifiées comme favorisant l’apparition de cancers, à travers leur implication dans la régulation du développement et du cycle cellulaire. Il y a une vingtaine d’années, la mise sur le marché des premiers traitements par inhibiteur de protéine kinase, ouvrait la voie vers de nouvelles solutions médicamenteuses plus ciblées contre le cancer. Depuis, nombreuses sont les données structurales et fonctionnelles acquises sur ces cibles thérapeutiques. Les techniques informatiques ont elles aussi évolué, notamment les méthodes d’apprentissage automatique. En tirant parti de la grande quantité d’informations disponibles aujourd’hui, ces méthodes devraient permettre prochainement la prédiction fine de l’interaction d’un inhibiteur donné avec chaque protéine kinase humaine et donc, à terme, la construction d’outils de profilage de leurs inhibiteurs spécifiques. Cette approche intégrative devrait aider la découverte de solutions thérapeutiques anti-cancéreuses plus efficaces et plus sûres.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Louche, B., et V. Hallet. « Détermination de la structure tectonique de l'aquifère crayeux du littoral Nord Pas-de-Calais par prospection géophysique couplée à des observations par forage. Conséquence sur la répartition d'eau salée ». Revue des sciences de l'eau 14, no 3 (12 avril 2005) : 265–80. http://dx.doi.org/10.7202/705420ar.

Texte intégral
Résumé :
Sur le littoral du Nord - Pas-de-Calais (France), la Craie d'âge Crétacé supérieur constitue l'aquifère le plus exploité régionalement pour l'alimentation en eau tant potable qu'industrielle. Sur la frange la plus littorale, l'aquifère crayeux, semi-captif est affecté par de nombreuses failles. Dans certains secteurs, la profondeur de la craie et la localisation des failles, restent aléatoires suite au manque de forages et d'affleurements. Afin de palier à ces lacunes, trois méthodes géophysiques (sondages électriques et sismiques, profilage électromagnétique) ont été appliquées. La synthèse des données obtenues a permis de démontrer que la craie est découpée en une série de compartiments par des accidents tectoniques présentant un affaissement vers le Sud et vers l'Ouest. L'interprétation des données géophysiques a également permis d'obtenir des informations sur la répartition de l'interface eau douce - eau salée au sein de l'aquifère crayeux. Dans la région, le concept classique de biseau salé ne permet pas d'expliquer l'irrégularité spatiale des intrusions. L'étude semble démontrer que la répartition et l'extension des intrusions d'eau salée peuvent être corrélées avec la localisation des accidents tectoniques, les intrusions les plus éloignées du rivage se faisant au droit des zones faillées. Ceci amène à proposer une nouvelle approche concernant l'extension des intrusions d'eau salée : elles seraient directement tributaires de la géométrie et des caractéristiques hydrodynamiques de l'aquifère crayeux, ces dernières étant fortement influencées par la présence des failles.
Styles APA, Harvard, Vancouver, ISO, etc.
4

DIEYE, Pape Issakha, Seni NDIAYE, Fode DIONE, Abdoulaye DIOP, Assane DIENG, Amadou DIOP, Bara NDIAYE, Yerim Mbagnick DIOP et Serigne Omar SARR. « Étude corrélée de l’activité antibactérienne et antifongique des extraits de Jatropha chevalieri et de Cordylla pinnata, et de leurs profils chromatographiques ». Journal of Applied Biosciences 159 (31 mars 2021) : 16396–410. http://dx.doi.org/10.35759/jabs.159.4.

Texte intégral
Résumé :
Objectif : L’objectif de cette étude est d’évaluer l’activité antibactérienne et antifongique des extraits et fractions de Cordylla pinnata (Dimb en wolof) et de Jatropha chevalieri (Wetenu bët en wolof). Elle vise aussi le profilage par chromatographie de leurs extraits bruts. Méthodologie et résultats : L’activité antimicrobienne a été évaluée par la méthode de diffusion sur un milieu solide, puis par le test de micro-dilution dans des microplaques à 96 puits. La présence de plusieurs composés phytochimiques a été mise en évidence à l’aide de la chromatographie sur couche mince haute performance semi-automatique. Les extraits ont présenté des diamètres d’inhibition allant jusqu’à 20 millimètres vis-à-vis de Escherichia coli, Pseudomonas aeruginosa, Staphylococcus aureus et Candida albicans. La CMI la plus faible (1,302±0,451 mg/ml) a été obtenue avec des extraits de feuilles de C. pinnata sur la souche C. albicans. Les profils CCM ont montré certaines ressemblances des extraits bruts qui pourraient expliquer les diamètres d’inhibition approximativement rapprochés de certaines de leurs fractions de même nature. Conclusion et application des résultats : Ces résultats décrivent pour la première fois, selon les données disponibles de la littérature, une activité antibactérienne et antifongique des extraits de Cordylla pinnata et de Jatropha chevalieri. Ces résultats suggèreraient l’utilisation de formulations traditionnelles (macérés aqueux, décoctés aqueux) seulement pour les maladies induites par les souches fongiques. Cette activité pourrait être améliorée par des travaux de séparation chromatographique bio-guidée. Mots clés : Cordylla pinnata, Jatropha chevalieri, extrait de plante, activité antimicrobienne, test de microdilution, profil HPTLC 16396 Dieye et al., J. Appl. Biosci. 2021 Étude corrélée de l’activité antibactérienne et antifongique des extraits de Jatropha chevalieri et de Cordylla pinnata, et de leurs profils chromatographiques Correlated study of the antibacterial and antifungal activity of extracts from Jatropha chevalieri and Cordylla pinnata, and their chromatographic profiles ABSTRACT Objective: The objective of this study is to evaluate the antibacterial and antifungal activity of extracts and fractions from Cordylla pinnata and Jatropha chevalieri. It also relates to by chromatographic profiling of their crude extracts. Methodology and results: Antimicrobial activity was assessed by the diffusion method on a solid medium followed by the micro-dilution test in 96-well microplates. The presence of several phytochemicals has been demonstrated using semi-automatic high performance thin layer chromatography. The extracts exhibited inhibition diameters of up to 20 millimeters against Escherichia coli, Staphylococcus aureus, Pseudomonas aeruginosa and Candida albicans. The lowest MIC (1.302 ± 0.451 mg / ml) was obtained by extracts of leaves of C. pinnata on the strain C. albicans. The TLC profiles showed some similarities of the crude extracts which could explain the approximately close inhibition diameters of some of their fractions of the same nature. Conclusion and application of results: These results describe an antibacterial and antifungal activity of extracts of Cordylla pinnata and Jatropha chevalieri. These results would suggest the use of traditional formulations (aqueous macerates, aqueous decocts) only for diseases induced by fungal strains. This activity could be improved by bio-guided chromatographic separation study. Keywords: Cordylla pinnata, Jatropha chevalieri, plant extract, antimicrobial activity, micro-dilution test, HPTLC profile
Styles APA, Harvard, Vancouver, ISO, etc.
5

DIEYE, Pape Issakha, Seni NDIAYE, Fode DIONE, Abdoulaye DIOP, Assane DIENG, Amadou DIOP, Bara NDIAYE, Yerim Mbagnick DIOP et Serigne Omar SARR. « Étude corrélée de l’activité antibactérienne et antifongique des extraits de Jatropha chevalieri et de Cordylla pinnata, et de leurs profils chromatographiques ». Journal of Applied Biosciences 159 (31 mars 2021) : 16396–410. http://dx.doi.org/10.35759/jabs.159.4.

Texte intégral
Résumé :
Objectif : L’objectif de cette étude est d’évaluer l’activité antibactérienne et antifongique des extraits et fractions de Cordylla pinnata (Dimb en wolof) et de Jatropha chevalieri (Wetenu bët en wolof). Elle vise aussi le profilage par chromatographie de leurs extraits bruts. Méthodologie et résultats : L’activité antimicrobienne a été évaluée par la méthode de diffusion sur un milieu solide, puis par le test de micro-dilution dans des microplaques à 96 puits. La présence de plusieurs composés phytochimiques a été mise en évidence à l’aide de la chromatographie sur couche mince haute performance semi-automatique. Les extraits ont présenté des diamètres d’inhibition allant jusqu’à 20 millimètres vis-à-vis de Escherichia coli, Pseudomonas aeruginosa, Staphylococcus aureus et Candida albicans. La CMI la plus faible (1,302±0,451 mg/ml) a été obtenue avec des extraits de feuilles de C. pinnata sur la souche C. albicans. Les profils CCM ont montré certaines ressemblances des extraits bruts qui pourraient expliquer les diamètres d’inhibition approximativement rapprochés de certaines de leurs fractions de même nature. Conclusion et application des résultats : Ces résultats décrivent pour la première fois, selon les données disponibles de la littérature, une activité antibactérienne et antifongique des extraits de Cordylla pinnata et de Jatropha chevalieri. Ces résultats suggèreraient l’utilisation de formulations traditionnelles (macérés aqueux, décoctés aqueux) seulement pour les maladies induites par les souches fongiques. Cette activité pourrait être améliorée par des travaux de séparation chromatographique bio-guidée. Mots clés : Cordylla pinnata, Jatropha chevalieri, extrait de plante, activité antimicrobienne, test de microdilution, profil HPTLC 16396 Dieye et al., J. Appl. Biosci. 2021 Étude corrélée de l’activité antibactérienne et antifongique des extraits de Jatropha chevalieri et de Cordylla pinnata, et de leurs profils chromatographiques Correlated study of the antibacterial and antifungal activity of extracts from Jatropha chevalieri and Cordylla pinnata, and their chromatographic profiles ABSTRACT Objective: The objective of this study is to evaluate the antibacterial and antifungal activity of extracts and fractions from Cordylla pinnata and Jatropha chevalieri. It also relates to by chromatographic profiling of their crude extracts. Methodology and results: Antimicrobial activity was assessed by the diffusion method on a solid medium followed by the micro-dilution test in 96-well microplates. The presence of several phytochemicals has been demonstrated using semi-automatic high performance thin layer chromatography. The extracts exhibited inhibition diameters of up to 20 millimeters against Escherichia coli, Staphylococcus aureus, Pseudomonas aeruginosa and Candida albicans. The lowest MIC (1.302 ± 0.451 mg / ml) was obtained by extracts of leaves of C. pinnata on the strain C. albicans. The TLC profiles showed some similarities of the crude extracts which could explain the approximately close inhibition diameters of some of their fractions of the same nature. Conclusion and application of results: These results describe an antibacterial and antifungal activity of extracts of Cordylla pinnata and Jatropha chevalieri. These results would suggest the use of traditional formulations (aqueous macerates, aqueous decocts) only for diseases induced by fungal strains. This activity could be improved by bio-guided chromatographic separation study. Keywords: Cordylla pinnata, Jatropha chevalieri, plant extract, antimicrobial activity, micro-dilution test, HPTLC profile
Styles APA, Harvard, Vancouver, ISO, etc.
6

Estabrooks, Carole A., Jeff W. Poss, Janet E. Squires, Gary F. Teare, Debra G. Morgan, Norma Stewart, Malcolm B. Doupe, Greta G. Cummings et Peter G. Norton. « A Profile of Residents in Prairie Nursing Homes ». Canadian Journal on Aging / La Revue canadienne du vieillissement 32, no 3 (6 août 2013) : 223–31. http://dx.doi.org/10.1017/s0714980813000287.

Texte intégral
Résumé :
RÉSUMÉLes maisons de soins infirmiers sont devenues des environnements offrant des soins complexes, dont les habitants ont des besoins importants et la plupart souffrent de la démence liée a l’âge. S’appuyant sur les recherches de Hirdes et al. (2011), nous décrivons un profil des résidents dans un échantillon représentatif de 30 maisons de soins infirmiers en milieu urbain dans les provinces des Prairies, en utilisant des données de L’Instrument d’évaluation des résidents/le recueil de données minimum (Resident Assistant Instrument – Minimum Data Set 2.0) de 5 196 évaluations résidents accomplies entre le 1ier octobre et le 31ieme décembre 3011. Les résidents avaient principalement plus de 85 ans, étaient des femmes, et souffraient d’une démence liée à l’âge. Nous avons comparé le soutien et les services connexes des établissements et les caractéristiques des résidents par province, par les modèles du propriétaire-gérant, et par le nombre d’unités dans une installation. Nous avons également constaté que les établissements publics ont tendance à s’occuper des résidents ayant des caractéristiques plus exigeants : notamment, la déficience cognitive, un comportement aggressif, et l’incontinence. Aucune tendance claire n’a été observée reliant le nombre d’unités dans un établissement aux caractéristiques des résidents.
Styles APA, Harvard, Vancouver, ISO, etc.
7

ZIDAOUI, I., C. JOANNIS, J. WERTEL, S. ISEL, C. WEMMERT, J. VAZQUEZ et M. DUFRESNE. « Utilisation de l’intelligence artificielle pour la validation des mesures en continu de la pollution des eaux usées ». Techniques Sciences Méthodes 11 (21 novembre 2022) : 39–51. http://dx.doi.org/10.36904/tsm/202211039.

Texte intégral
Résumé :
Pour lutter contre la pollution des masses d’eaux, la réglementation française impose la mesure et la régulation des rejets d’eaux usées dans l’environnement. Cependant, malgré les progrès dans le domaine des systèmes d’acquisition de données, les capteurs, tout particulièrement les sondes de turbidité, installés dans des milieux agressifs tels que les réseaux d’assainissement sont sujets à des dysfonctionnements fréquents (dérive, saturation, données manquantes…), qui peuvent fausser l’évaluation du flux de pollution. Il est donc essentiel d’identifier les potentielles anomalies avant toute utilisation des données. Aujourd’hui, cette validation se fait au niveau de la supervision et/ou via des opérateurs. L’objectif de ce travail est d’évaluer le potentiel des outils d’intelligence artificielle à automatiser la validation et d’estimer la plus-value de cette approche par rapport à une validation « métier » effectuée par un expert. Pour cela, quatre algorithmes de détection d’anomalies de l’état de l’art sont comparés en utilisant des données de turbidité issues du réseau de collecte de Saint-Malo Agglomération. La plupart de ces algorithmes ne sont pas adaptés à la nature des données étudiées qui sont hétérogènes et bruitées. Seul l’algorithme Matrix Profile permet d’obtenir des résultats prometteurs avec une majorité d’anomalies détectées et un nombre de faux positifs relativement limités.
Styles APA, Harvard, Vancouver, ISO, etc.
8

D’Ascoli, Yannick, et Jean-Louis Berger. « Les déterminants du choix de carrière des enseignants de la formation professionnelle et leur relation aux caractéristiques sociodémographiques ». Nouveaux cahiers de la recherche en éducation 15, no 2 (20 septembre 2013) : 1–33. http://dx.doi.org/10.7202/1018455ar.

Texte intégral
Résumé :
Constatant qu’une pénurie d’enseignants se profile dans de nombreux pays occidentaux, cette étude, menée en Suisse, se focalise sur les motivations des enseignants de ce pays et leurs perceptions du métier. Des analyses de pistes causales ont été menées à partir de données recueillies au moyen d’un questionnaire construit à partir du modèle théoriqueFactors Influencing Teaching Choice. Les résultats obtenus mettent en évidence l’importance des motivations intrinsèques et sociales dans le choix de devenir enseignant ainsi que certaines différences dues aux caractéristiques sociodémographiques. Finalement, des implications concernant le recrutement des enseignants sont proposées.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Rekwot, Z. G., O. Oyinbo et N. P. Achi. « Poverty reduction among beef cattle value chain actors in North-West zone of Nigeria ». Nigerian Journal of Animal Production 48, no 6 (18 janvier 2022) : 363–73. http://dx.doi.org/10.51791/njap.v48i6.3324.

Texte intégral
Résumé :
This paper provides a valuable guide in defining interventions relevant for addressing various actors and determining the expected poverty reducing effects that such interventions can produce in the beef cattle value chain. The objective of this paper was to provide empirical information on the relationship between income generated from beef cattle value chain and poverty status of value chain actors in Nigeria. The study was conducted in Kaduna, Kano and Katsina states,twelve villages were purposively selected (two from each LGA) and one cattle market in each of the six LGAs was randomly selected to give a sample of six cattle markets. A multi-stage sampling technique was employed in the selection of the respondents. A sample size of 300 value chain actors consisting of 120 beef cattle farmers, 60 beef cattle traders, 60 raw beef marketers and 60 processed beef marketers was utilized in thestudy. The study made use of primary data, which were obtained through the use of computeraided personal interview (CAPI) software on tablets. Analysis of the data was done using descriptive statistics, Foster-Greer-Thorbecke's (FGT) weighted poverty index and Pearson correlation analysis. The results of the poverty profile of farmers, traders, raw and processed beef cattle marketers in the study area showed that 55%, 32%, 40% and 38% of the raw and processed beef marketers respectively constituted the share of the population that cannot afford to buy a basic basket of goods (food and non-food) equivalent to the poverty line of N75, 600. The depth of poverty of poor beef cattle traders (0.08) was lower than that of the poor beef cattle farmers (0.17), raw beef marketers (0.10) and processed beef marketers (0.14). The degree of poverty among the poor beef cattle traders given by the estimated severity of poverty (0.03) was equally lower than that of the poor beef cattle farmers (0.08), raw beef marketers (0.04) and processed beef marketers (0.07). Participation in beef cattle value chain activities as given by the income generated is strongly associated to the likelihood of poverty reduction among the value chain actors as indicated by the correlation coefficients of -0.53, -0.66., -0.64 and -0.71 between income generated from beef cattle value chain and poverty status of the cattle farmers, traders, raw beef marketers and processed beef marketers respectively. It is recommended that beef value chain actors should take advantage of the huge potential investment opportunities in beef cattle value chain activities. Ce document fournit un guide précieux pour définir les interventions pertinentes pour s'adresser à divers acteurs et déterminer les effets escomptés de réduction de la pauvreté que de telles interventions peuvent produire dans la chaîne de valeur des bovins de boucherie. L'objectif de cet article était de fournir des informations empiriques sur la relation entre les revenus générés par la chaîne de valeur des bovins de boucherie et le statut de pauvreté des acteurs de la chaîne de valeur au Nigeria. L'étude a été menée dans les États de Kaduna, Kano et Katsina, douze villages ont été choisis à dessein (deux dans chaque LGA) et un marché aux bestiaux dans chacune des six LGA a été sélectionné au hasard pour donner un échantillon de six marchés aux bestiaux. Une technique d'échantillonnage à plusieurs degrés a été utilisée pour la sélection des répondants. Un échantillon de 300 acteurs de la chaîne de valeur comprenant 120 éleveurs de bovins de boucherie, 60 commerçants de bovins de boucherie, 60 commerçants de bœuf cru et 60 commerçants de bœuf transformé a été utilisé dans l'étude. L'étude a utilisé des données primaires, qui ont été obtenues grâce à l'utilisation d'un logiciel d'entretien personnel assisté par ordinateur (EPAO) sur des tablettes. L'analyse des données a été effectuée à l'aide de statistiques descriptives, de l'indice de pauvreté pondéré de Foster-Greer-Thorbecke (FGT) et de l'analyse de corrélation de Pearson. Les résultats du profil de pauvreté des agriculteurs, commerçants, commerçants de bœuf cru et transformé dans la zone d'étude ont montré que 55%, 32%, 40% et 38% des commerçants de bœuf cru et transformé constituaient respectivement la part de la population qui ne peut pas se permettre d'acheter un panier de base de biens (alimentaires et non alimentaires) équivalent au seuil de pauvreté de N75, 600. La profondeur de la pauvreté des commerçants pauvres de bovins de boucherie (0,08) était inférieure à celle des éleveurs pauvres de bovins de boucherie (0,17) , les commerçants de bœuf cru (0,10) et les commerçants de bœuf transformé (0,14). Le degré de pauvreté parmi les commerçants pauvres de bovins de boucherie donné par la gravité estimée de la pauvreté (0,03) était également inférieur à celui des éleveurs pauvres de bovins de boucherie (0,08), des commerçants de bœuf cru (0,04) et des commerçants de bœuf transformé (0,07). La participation aux activités de la chaîne de valeur des bovins de boucherie telle que donnée par les revenus générés est fortement associée à la probabilité de réduction de la pauvreté parmi les acteurs de la chaîne de valeur, comme indiqué par les coefficients de corrélation de -0,53, -0,66., -0,64 et -0,71 entre les revenus générés par chaîne de valeur des bovins de boucherie et statut de pauvreté des éleveurs de bétail, des commerçants, des commerçants de bœuf cru et des commerçants de bœuf transformé respectivement. Il est recommandé que les acteurs de la chaîne de valeur du bœuf tirent parti des énormes opportunités d'investissement potentielles dans les activités de la chaîne de valeur du bœuf
Styles APA, Harvard, Vancouver, ISO, etc.
10

Emery, Yves, et Armand Brice Kouadio. « Marque employeur et stratégies RH pour les employeurs publics. Le cas du bassin d’emploi Franco-Valdo-Genevois ». Les nouvelles frontières du management public 21, no 2 (16 octobre 2018) : 47–59. http://dx.doi.org/10.7202/1052686ar.

Texte intégral
Résumé :
Cet article développe une analyse exploratoire comparant les politiques RH entre les employeurs publics Suisse romands et leurs homologues des départements limitrophes français, opérant au sein d’un même bassin d’emploi appelé « le Grand Genève « (territoire Franco-Valdo-Genevois). Longtemps confinées à la « simple » mise en oeuvre des statuts du personnel, les politiques RH des organisations publiques deviennent de plus en plus stratégiques, étant donnée l’importance d’attirer et de conserver les meilleurs talents sur le marché de l’emploi. Mobilisant les concepts de Marque employeur et de Contrat psychologique, cette contribution révèle les points communs et divergences, entre employeurs suisses et français, parmi les atouts mis en avant pour les potentielles recrues et les stratégies de valorisation et de profilage utilisées.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Profilage des données"

1

Chevallier, Marc. « L’Apprentissage artificiel au service du profilage des données ». Electronic Thesis or Diss., Paris 13, 2022. http://www.theses.fr/2022PA131060.

Texte intégral
Résumé :
La transformation digitale qui s’est effectuée de manière rapide aux cours des dernières décennies au sein des entreprises a donné lieu à une production massive de données. Une fois les problèmes liés au stockage de ces données résolus, leur utilisation au sein de la Business Intelligence (BI) ou du Machine Learning (ML) est devenue un objectif majeur des entreprises afin de rentabiliser leurs données. Mais l’exploitation de ces données s’avère complexe car elles sont très peu documentées et contiennent très souvent de nombreuses erreurs. C’est dans ce contexte que les domaines du profilage des données et de la qualité des données (QD) ont pris de plus en plus d’importance, le profilage ayant pour but d’extraire des métadonnées informatives sur les données et la qualité des données de quantifier les erreurs dans les données. Le profilage étant un prérequis à la qualité des données nous avons concentré nos travaux sur ce sujet au travers de l’utilisation de vecteurs de métadonnées issu d’action de profilage simple. Ces vecteurs d’informations simples nous ont permis de réaliser des tâches de profilage avancées, en particulier la prédiction de type sémantique complexe au moyen d’algorithmes d’apprentissage artificiel. Les vecteurs de métadonnées que nous avons utilisés sont de grande taille et sont donc affectés par la malédiction de la grande dimension. Ce terme regroupe un ensemble de problèmes de performance survenant en apprentissage artificiel quand le nombre de dimensions du problème augmente. Une méthode pour résoudre ces problèmes est d’utiliser des algorithmes génétiques pour sélectionner un sous-ensemble de dimensions ayant de bonnes propriétés. Dans ce cadre nous avons proposé des améliorations : d’une part, une initialisation non aléatoire des individus composant la population initiale de l’algorithme génétique, d’autre part, des modifications pour l’algorithme génétique avec des mutations agressives afin d’améliorer ses performances (GAAM)
The digital transformation that has been rapidly happening within companies over the last few decades has led to a massive production of data. Once the problems related to the storage of those data have been solved, its use within Business Intelligence (BI) or Machine Learning (ML) has become a major objective for companies in order to make their data profitable. But the exploitation of the data is complex because it is not well documented and often contains many errors. It is in this context that the fields of data profiling and data quality (DQ) have become increasingly important. Profiling aims at extracting informative metadata from the data and data quality aims at quantifying the errors in the data.Profiling being a prerequisite to data quality, we have focused our work on this subject through the use of metadata vectors resulting from simple profiling actions. These simple information vectors have allowed us to perform advanced profiling tasks, in particular the prediction of complex semantic types using machine learning. The metadata vectors we used are large and are therefore affected by the curse of dimensionality. This term refers to a set of performance problems that occur in machine learning when the number of dimensions of the problem increases. One method to solve these problems is to use genetic algorithms to select a subset of dimensions with good properties. In this framework we have proposed improvements: on one hand, a non-random initialization of the individuals composing the initial population of the genetic algorithm, on the other hand, a modification to the genetic algorithm with aggressive mutations in order to improve its performance (GAAM)
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ben, Ellefi Mohamed. « La recommandation des jeux de données basée sur le profilage pour le liage des données RDF ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Texte intégral
Résumé :
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ammous, Karim. « Compression par profilage du code Java compilé pour les systèmes embarqués ». Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/a56319aa-b36f-46ed-b617-a1464a995056.

Texte intégral
Résumé :
Les systèmes embarqués sont caractérisés par des ressources matérielles réduites. Bien que ces ressources ne cessent de s’étendre, elles restent tout de même insuffisantes. L’espace mémoire est l’une des ressources les plus critiques. La compression du code dédié aux systèmes embarqués représente une solution intéressante pour réduire l’encombrement mémoire. Notre travail de recherche se focalise sur la compression du code Java sous format de fichiers class Java. Notre contribution consiste à concevoir et mettre en œuvre un système basé sur un profiler pour guider la compression des fichiers class Java. Ce profiler permet d'établir une stratégie de compression efficace offrant le meilleur taux de compression en tenant compte des caractéristiques du code en entrée et des dépendances entre les techniques de compression. La démarche suit quatre points : 1- l'examen du code Java afin d’en extraire les informations utiles pour le guidage du processus de compression. 2 - l'analyse des dépendances des opérations de compression en terme d'interaction mutuelle des unes avec les autres. Pour ce faire, nous avons mis au point deux méthodes, l'une numérique basée sur l'estimation des performances, l'autre analytique permettant de déterminer la nature des dépendances entre les opérations de compression. 3 - l'évaluation statistique des performances permettant le choix de la stratégie de compression. Nous avons, à ce propos, identifié les paramètres relatifs à chaque opération permettant ainsi leur évaluation. 4- La définition d’heuristiques appropriées pour identifier le chemin de compression le plus efficace dans l'espace de recherche représenté par un graphe orienté
The embedded systems are characterized by reduced hardware resources. Although these resources are constantly increasing, they remain insufficient. The memory space is one of the most critical resources. The compression of the code designed for embedded systems constitutes an interesting solution to reduce the memory footprint. Our study focuses on the compression of Java code represented by Java Class format files. Our contribution consists in designing and implementing a profiler based system in order to guide the compression of Java class files. Our profiler enables us to set up, on the basis of elementary compression techniques, an efficient compression strategy which delivers the best rate of compression. This strategy takes into consideration the features of the code given in input and dependencies between compression techniques. Our approach is based on four points: 1 - the study of the input files in order to extract the necessary information for the guidance of the compression process. 2 - the analysis of compression techniques dependencies in terms of effects produced by each technique to the others. To do so, we developed two methods: one numerical, based on the estimation of performance, the other analytical in order to determine whether there are common points between the different compression methods. 3 - the statistic performance assessment which allows to choose a strategy of compression: we have identified the parameters, related to each method, that enable this assessment. 4 - the definition of heuristics in order to identify the most efficient compression path in a research space characterized by an oriented graph
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ben, salem Aïcha. « Qualité contextuelle des données : détection et nettoyage guidés par la sémantique des données ». Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD054/document.

Texte intégral
Résumé :
De nos jours, les applications complexes telles que l'extraction de connaissances, la fouille de données, le E-learning ou les applications web utilisent des données hétérogènes et distribuées. Dans ce contexte, la qualité de toute décision dépend de la qualité des données utilisées. En effet, avec l'absence de données riches, précises et fiables, une organisation peut prendre potentiellement de mauvaises décisions. L'objectif de cette thèse consiste à assister l'utilisateur dans sa démarche qualité. Il s'agit de mieux extraire, mélanger, interpréter et réutiliser les données. Pour cela, il faut rattacher aux données leurs sens sémantiques, leurs types, leurs contraintes et leurs commentaires. La première partie s'intéresse à la reconnaissance sémantique du schéma d'une source de données. Elle permet d'extraire la sémantique des données à partir de toutes les informations disponibles, incluant les données et les métadonnées. Elle consiste, d'une part, à classifier les données en leur attribuant une catégorie et éventuellement une sous-catégorie, et d'autre part, à établir des relations inter colonnes et de découvrir éventuellement la sémantique de la source de données manipulée. Ces liens inter colonnes une fois détectés offrent une meilleure compréhension de la source ainsi que des alternatives de correction des données. En effet, cette approche permet de détecter de manière automatique un grand nombre d'anomalies syntaxiques et sémantiques. La deuxième partie consiste à nettoyer les données en utilisant les rapports d'anomalies fournis par la première partie. Elle permet une correction intra colonne (homogénéisation des données), inter colonnes (dépendances sémantique) et inter lignes (élimination des doublons et similaire). Tout au long de ce processus, des recommandations ainsi que des analyses sont proposées à l'utilisateur
Nowadays, complex applications such as knowledge extraction, data mining, e-learning or web applications use heterogeneous and distributed data. The quality of any decision depends on the quality of the used data. The absence of rich, accurate and reliable data can potentially lead an organization to make bad decisions.The subject covered in this thesis aims at assisting the user in its quality ap-proach. The goal is to better extract, mix, interpret and reuse data. For this, the data must be related to its semantic meaning, data types, constraints and comments.The first part deals with the semantic schema recognition of a data source. This enables the extraction of data semantics from all the available information, inculding the data and the metadata. Firstly, it consists of categorizing the data by assigning it to a category and possibly a sub-category, and secondly, of establishing relations between columns and possibly discovering the semantics of the manipulated data source. These links detected between columns offer a better understanding of the source and the alternatives for correcting data. This approach allows automatic detection of a large number of syntactic and semantic anomalies.The second part is the data cleansing using the reports on anomalies returned by the first part. It allows corrections to be made within a column itself (data homogeni-zation), between columns (semantic dependencies), and between lines (eliminating duplicates and similar data). Throughout all this process, recommendations and analyses are provided to the user
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bakiri, Ali. « Développements informatiques de déréplication et de classification de données spectroscopiques pour le profilage métabolique d’extraits d'algues ». Thesis, Reims, 2018. http://www.theses.fr/2018REIMS013.

Texte intégral
Résumé :
L’émergence des méthodes de déréplication comme moyen d’identification rapide des substances naturelles connues implique le développement conjoint d’outils informatiques dédiés au traitement et à l’analyse des données spectrales. Dans ce contexte, les travaux présentés dans ce mémoire ont porté sur le développement de deux méthodes in silico de déréplication par résonance magnétique nucléaire (RMN). La première méthode, DerepCrud, permet l’identification des molécules naturelles à partir d’extraits naturels bruts en utilisant des données de RMN du 13C. La méthode permet de comparer des spectres de RMN 1D du 13C issus de l’analyse d’un extrait naturel à ceux des molécules naturelles répertoriées dans une base de données locale afin de pouvoir identifier les composés majoritaires. La deuxième méthode, BCNet, permet d’exploiter les données RMN bidimensionnelles (HMBC et HSQC) pour la déréplication de molécules naturelles. L’algorithme construit un réseau de corrélations HMBC formés par les signaux appartenant aux différentes molécules constituant un extrait puis isole les signaux de chaque molécule grâce à l’utilisation d’algorithmes de détection de communautés. Les molécules sont enfin identifiées en effectuant une recherche dans la base de données des corrélations HMBC. A la fin de la procédure, la présence des molécules identifiées est confirmée par une comparaison de leurs corrélations HSQC théoriques (aussi issues de la base de données) avec les corrélations expérimentales correspondantes afin de renforcer la précision de l’identification
The emergence of dereplication strategies as a new tool for the rapid identification of the natural products from complex natural extracts has unveiled a great need for cheminformatic tools for the treatment and analysis of the spectral data. The present thesis deals with the development of in silico dereplication methods based on Nuclear Magnetic Resonance (NMR). The first method, DerepCrud, is based on 13C NMR spectroscopy. It identifies the major compounds contained in a crude natural extract without any need for fractionation. The principle of the method is to compare the 13C NMR spectrum of the analyzed mixture to a series of 13C NMR chemical shifts of natural compounds stored in a local database. The second method, BCNet, is designed to exploit the richness of 2D NMR data (HMBC and HSQC) for the dereplication of the natural products. BCNet traces back the network formed by the HMBC correlations of the molecules present in a naturel extract, then isolates the groups of correlations belonging to the individual molecules using a community detection algorithm. The molecules are identified by searching these correlations within a locally constructed database that associates natural product structures and 2D NMR peak positions. Finally, the HSQC correlations of the molecules identified during the previous step are compared to the experimental HSQC correlations of the studied extract in order to increase the quality of identification accuracy
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lagraa, Sofiane. « New MP-SoC profiling tools based on data mining techniques ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM026/document.

Texte intégral
Résumé :
La miniaturisation des composants électroniques a conduit à l'introduction de systèmes électroniques complexes qui sont intégrés sur une seule puce avec multiprocesseurs, dits Multi-Processor System-on-Chip (MPSoC). La majorité des systèmes embarqués récents sont basées sur des architectures massivement parallèles MPSoC, d'où la nécessité de développer des applications parallèles embarquées. La conception et le développement d'une application parallèle embarquée devient de plus en plus difficile notamment pour les architectures multiprocesseurs hétérogènes ayant différents types de contraintes de communication et de conception tels que le coût du matériel, la puissance et la rapidité. Un défi à relever par de nombreux développeurs est le profilage des applications parallèles embarquées afin qu'ils puissent passer à l'échelle sur plusieurs cœurs possible. Cela est particulièrement important pour les systèmes embarqués de type MPSoC, où les applications doivent fonctionner correctement sur de nombreux cœurs. En outre, la performance d'une application ne s'améliore pas forcément lorsque l'application tourne sur un nombre de cœurs encore plus grand. La performance d'une application peut être limitée en raison de multiples goulot d'étranglement notamment la contention sur des ressources partagées telles que les caches et la mémoire. Cela devient contraignant etune perte de temps pour un développeur de faire un profilage de l'application parallèle embarquée et d'identifier des goulots d'étranglement dans le code source qui diminuent la performance de l'application. Pour surmonter ces problèmes, dans cette thèse, nous proposons trois méthodes automatiques qui détectent les instructions du code source qui ont conduit à une diminution de performance due à la contention et à l'évolutivité des processeurs sur une puce. Les méthodes sont basées sur des techniques de fouille de données exploitant des gigaoctets de traces d'exécution de bas niveau produites par les platesformes MPSoC. Nos approches de profilage permettent de quantifier et de localiser automatiquement les goulots d'étranglement dans le code source afin d'aider les développeurs à optimiserleurs applications parallèles embarquées. Nous avons effectué plusieurs expériences sur plusieurs applications parallèles embarquées. Nos expériences montrent la précision des techniques proposées, en quantifiant et localisant avec précision les hotspots dans le code source
Miniaturization of electronic components has led to the introduction of complex electronic systems which are integrated onto a single chip with multiprocessors, so-called Multi-Processor System-on-Chip (MPSoC). The majority of recent embedded systems are based on massively parallel MPSoC architectures, hence the necessity of developing embedded parallel applications. Embedded parallel application design becomes more challenging: It becomes a parallel programming for non-trivial heterogeneous multiprocessors with diverse communication architectures and design constraints such as hardware cost, power, and timeliness. A challenge faced by many developers is the profiling of embedded parallel applications so that they can scale over more and more cores. This is especially critical for embedded systems powered by MPSoC, where ever demanding applications have to run smoothly on numerous cores, each with modest power budget. Moreover, application performance does not necessarily improve as more cores are added. Application performance can be limited due to multiple bottlenecks including contention for shared resources such as caches and memory. It becomes time consuming for a developer to pinpoint in the source code the bottlenecks decreasing the performance. To overcome these issues, in this thesis, we propose a fully three automatic methods which detect the instructions of the code which lead to a lack of performance due to contention and scalability of processors on a chip. The methods are based on data mining techniques exploiting gigabytes of low level execution traces produced by MPSoC platforms. Our profiling approaches allow to quantify and pinpoint, automatically the bottlenecks in source code in order to aid the developers to optimize its embedded parallel application. We performed several experiments on several parallel application benchmarks. Our experiments show the accuracy of the proposed techniques, by quantifying and pinpointing the hotspot in the source code
Styles APA, Harvard, Vancouver, ISO, etc.
7

Brunie, Hugo. « Optimisation des allocations de données pour des applications du Calcul Haute Performance sur une architecture à mémoires hétérogènes ». Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0014/document.

Texte intégral
Résumé :
Le Calcul Haute Performance, regroupant l’ensemble des acteurs responsables de l’amélioration des performances de calcul des applications scientifiques sur supercalculateurs, s’est donné pour objectif d’atteindre des performances exaflopiques. Cette course à la performance se caractérise aujourd’hui par la fabrication de machines hétérogènes dans lesquelles chaque composant est spécialisé. Parmi ces composants, les mémoires du système se spécialisent, et la tendance va vers une architecture composée de plusieurs mémoires aux caractéristiques complémentaires. La question se pose alors de l’utilisation de ces nouvelles machines dont la performance pratique dépend du placement des données de l’application sur les différentes mémoires. Dans cette thèse, nous avons développé une formulation du problème d’allocation de donnée sur une Architecture à Mémoires Hétérogènes. Dans cette formulation, nous avons fait apparaître le bénéfice que pourrait apporter une analyse temporelle du problème, parce que de nombreux travaux reposaient uniquement sur une approche spatiale. À partir de cette formulation, nous avons développé un outil de profilage hors ligne pour approximer les coefficients de la fonction objective afin de résoudre le problème d’allocation et d’optimiser l’allocation des données sur une architecture composée deux de mémoires principales aux caractéristiques complémentaires. Afin de réduire la quantité de modifications nécessaires pour prendre en compte la stratégie d’allocation recommandée par notre boîte à outils, nous avons développé un outil capable de rediriger automatiquement les allocations de données à partir d’un minimum d’instrumentation dans le code source. Les gains de performances obtenus sur des mini-applications représentatives des applications scientifiques codées par la communauté permet d’affirmer qu’une allocation intelligente des données est nécessaire pour bénéficier pleinement de ressources mémoires hétérogènes. Sur certaines tailles de problèmes, le gain entre un placement naïf est une allocation instruite peut atteindre un facteur ×3.75
High Performance Computing, which brings together all the players responsible for improving the computing performance of scientific applications on supercomputers, aims to achieve exaflopic performance. This race for performance is today characterized by the manufacture of heterogeneous machines in which each component is specialized. Among these components, system memories specialize too, and the trend is towards an architecture composed of several memories with complementary characteristics. The question arises then of these new machines use whose practical performance depends on the application data placement on the different memories. Compromising code update against performance is challenging. In this thesis, we have developed a data allocation on Heterogeneous Memory Architecture problem formulation. In this formulation, we have shown the benefit of a temporal analysis of the problem, because many studies were based solely on a spatial approach this result highlight their weakness. From this formulation, we developed an offline profiling tool to approximate the coefficients of the objective function in order to solve the allocation problem and optimize the allocation of data on a composite architecture composed of two main memories with complementary characteristics. In order to reduce the amount of code changes needed to execute an application according to our toolbox recommended allocation strategy, we have developed a tool that can automatically redirect data allocations from a minimum source code instrumentation. The performance gains obtained on mini-applications representative of the scientific applications coded by the community make it possible to assert that intelligent data allocation is necessary to fully benefit from heterogeneous memory resources. On some problem sizes, the gain between a naive data placement strategy, and an educated data allocation one, can reach up to ×3.75 speedup
Styles APA, Harvard, Vancouver, ISO, etc.
8

Haine, Christopher. « Kernel optimization by layout restructuring ». Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0639/document.

Texte intégral
Résumé :
Bien penser la structuration de données est primordial pour obtenir de hautes performances, alors que les processeurs actuels perdent un temps considérable à attendre la complétion de transactions mémoires. En particulier les localités spatiales et temporelles de données doivent être optimisées.Cependant, les transformations de structures de données ne sont pas proprement explorées par les compilateurs, en raison de la difficulté que pose l'évaluation de performance des transformations potentielles. De plus,l'optimisation des structures de données est chronophage, sujette à erreur etles transformations à considérer sont trop nombreuses pour être implémentées à la main dans l'optique de trouver une version de code efficace.On propose de guider les programmeurs à travers le processus de restructuration de données grace à un retour utilisateur approfondi, tout d'abord en donnant une description multidimensionnelle de la structure de donnée initiale, faite par une analyse de traces mémoire issues du binaire de l'application de l'utilisateur, dans le but de localiser des problèmes de stride au niveau instruction, indépendemment du langage d'entrée. On choisit de focaliser notre étude sur les transformations de structure de données, traduisibles dans un formalisme proche du C pour favoriser la compréhension de l'utilisateur, que l'on applique et évalue sur deux cas d'étude qui sont des applications réelles,à savoir une simulation d'ondes cardiaques et une simulation de chromodynamique quantique sur réseau, avec différents jeux d'entrées. La prédiction de performance de différentes transformations est conforme à 5% près aux versions réécrites à la main
Careful data layout design is crucial for achieving high performance, as nowadays processors waste a considerable amount of time being stalled by memory transactions, and in particular spacial and temporal locality have to be optimized. However, data layout transformations is an area left largely unexplored by state-of-the-art compilers, due to the difficulty to evaluate the possible performance gains of transformations. Moreover, optimizing data layout is time-consuming, error-prone, and layout transformations are too numerous tobe experimented by hand in hope to discover a high performance version. We propose to guide application programmers through data layout restructuring with an extensive feedback, firstly by providing a comprehensive multidimensional description of the initial layout, built via analysis of memory traces collected from the application binary textit {in fine} aiming at pinpointing problematic strides at the instruction level, independently of theinput language. We choose to focus on layout transformations,translatable to C-formalism to aid user understanding, that we apply and assesson case study composed of two representative multithreaded real-lifeapplications, a cardiac wave simulation and lattice QCD simulation, with different inputs and parameters. The performance prediction of different transformations matches (within 5%) with hand-optimized layout code
Styles APA, Harvard, Vancouver, ISO, etc.
9

Jouravel, Glorianne. « Stratégies innovantes pour une valorisation d’extraits de plantes en cosmétique : Mise en oeuvre d’un outil de profilage métabolique et recherche de nouvelles activités biologiques ». Thesis, Orléans, 2018. http://www.theses.fr/2018ORLE2017.

Texte intégral
Résumé :
La cosmétique valorise des extraits de plantes en les intégrant dans des produits de soin. Ces extraits constituent les ingrédients actifs de la formule cosmétique. Les plantes sont diverses, riches et contiennent de nombreux composés d’intérêt biologique. La phytochimie s’intéresse à décrire le contenu métabolique d’extraits de plantes. Mais la caractérisation moléculaire de ces matrices complexes reste un défi majeur aujourd’hui. En effet, les étapes de traitements de données sont longues et laborieuses. Un outil de profilage métabolique, GAINS, a ainsi été développé afin de traiter de façon automatisée les données issues d’analyses en chromatographie liquide couplée à la spectrométrie de masse haute résolution. Il constitue un support au phytochimiste car le traitement automatisé des données permet de gagner du temps par rapport à un traitement manuel. Cet outil associé à une vaste base de données de produits naturels permet d’attribuer des candidats potentiels aux pics détectés. GAINS fait aussi appel à un module de fragmentation in silico afin d’étayer les propositions de candidats. Cela permet de comparer le spectre de fragmentation modélisé des candidats avec le spectre de fragmentation expérimental.L’ensemble des études phytochimiques réalisées pour identifier ou isoler des composés va de pair avec l’étude du potentiel d’effet biologique des extraits sur la peau, organe ciblé par les cosmétiques. Cela sert à découvrir les actions bénéfiques que peut avoir l’extrait. En connaissant le contenu phytochimique, on peut expliquer et rationaliser les tests d’activités biologiques. Le développement d’un actif anti-âge à partir de la salicaire, une plante de la région Centre-Val de Loire, en est l’exemple
The cosmetic field valorizes plant extracts by integrating them in care products. These extracts constitute the active ingredients of the cosmetic formulation. Plants are diverse, rich and contain numerous compounds of biological interest. Phytochemistry is a way to describe the metabolic content of plant extracts. But molecular characterization of these complex matrices remains a major challenge nowadays. Indeed,steps of data treatment are time-consuming and laborious. In this way, a tool of metabolic profiling, GAINS, has been developed in order to treat in an automatized way data from analyses performed in liquid chromatography coupled with high-resolution mass spectrometry. It constitutes a real support for phytochemists because automatized data treatment allows gaining time compared to manual treatment. This tool, associated with a large database of natural compounds make possible to assign potential candidates to detected peaks. GAINS appeals a module of in silico fragmentation for holding candidates assignments up.This permits to compare modeled spectrum of fragmentation of candidates with experimental spectrum off ragmentation.The whole set of phytochemical studies realized to identify or isolate compounds goes hand in hand with the study of potential biological effects of extracts to the skin, targeted organ by skin-care products. This allows the discovery of beneficial actions that the extract could have. By knowing the phytochemical content, it is possible to explain and rationalize assays about biological activities. The development of an anti-aging ingredient from purple loosestrife, a plant occurring in the region Centre-Val de Loire, is an example of it
Styles APA, Harvard, Vancouver, ISO, etc.
10

Awwad, Tarek. « Context-aware worker selection for efficient quality control in crowdsourcing ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI099/document.

Texte intégral
Résumé :
Le crowdsourcing est une technique qui permet de recueillir une large quantité de données d'une manière rapide et peu onéreuse. Néanmoins, La disparité comportementale et de performances des "workers" d’une part et la variété en termes de contenu et de présentation des tâches par ailleurs influent considérablement sur la qualité des contributions recueillies. Par conséquent, garder leur légitimité impose aux plateformes de crowdsourcing de se doter de mécanismes permettant l’obtention de réponses fiables et de qualité dans un délai et avec un budget optimisé. Dans cette thèse, nous proposons CAWS (Context AwareWorker Selection), une méthode de contrôle de la qualité des contributions dans le crowdsourcing visant à optimiser le délai de réponse et le coût des campagnes. CAWS se compose de deux phases, une phase d’apprentissage opérant hors-ligne et pendant laquelle les tâches de l’historique sont regroupées de manière homogène sous forme de clusters. Pour chaque cluster, un profil type optimisant la qualité des réponses aux tâches le composant, est inféré ; la seconde phase permet à l’arrivée d’une nouvelle tâche de sélectionner les meilleurs workers connectés pour y répondre. Il s’agit des workers dont le profil présente une forte similarité avec le profil type du cluster de tâches, duquel la tâche nouvellement créée est la plus proche. La seconde contribution de la thèse est de proposer un jeu de données, appelé CrowdED (Crowdsourcing Evaluation Dataset), ayant les propriétés requises pour, d’une part, tester les performances de CAWS et les comparer aux méthodes concurrentes et d’autre part, pour tester et comparer l’impact des différentes méthodes de catégorisation des tâches de l’historique (c-à-d, la méthode de vectorisation et l’algorithme de clustering utilisé) sur la qualité du résultat, tout en utilisant un jeu de tâches unique (obtenu par échantillonnage), respectant les contraintes budgétaires et gardant les propriétés de validité en terme de dimension. En outre, CrowdED rend possible la comparaison de méthodes de contrôle de qualité quelle que soient leurs catégories, du fait du respect d’un cahier des charges lors de sa constitution. Les résultats de l’évaluation de CAWS en utilisant CrowdED comparés aux méthodes concurrentes basées sur la sélection de workers, donnent des résultats meilleurs, surtout en cas de contraintes temporelles et budgétaires fortes. Les expérimentations réalisées avec un historique structuré en catégories donnent des résultats comparables à des jeux de données où les taches sont volontairement regroupées de manière homogène. La dernière contribution de la thèse est un outil appelé CREX (CReate Enrich eXtend) dont le rôle est de permettre la création, l’extension ou l’enrichissement de jeux de données destinés à tester des méthodes de crowdsourcing. Il propose des modules extensibles de vectorisation, de clusterisation et d’échantillonnages et permet une génération automatique d’une campagne de crowdsourcing
Crowdsourcing has proved its ability to address large scale data collection tasks at a low cost and in a short time. However, due to the dependence on unknown workers, the quality of the crowdsourcing process is questionable and must be controlled. Indeed, maintaining the efficiency of crowdsourcing requires the time and cost overhead related to this quality control to stay low. Current quality control techniques suffer from high time and budget overheads and from their dependency on prior knowledge about individual workers. In this thesis, we address these limitation by proposing the CAWS (Context-Aware Worker Selection) method which operates in two phases: in an offline phase, the correlations between the worker declarative profiles and the task types are learned. Then, in an online phase, the learned profile models are used to select the most reliable online workers for the incoming tasks depending on their types. Using declarative profiles helps eliminate any probing process, which reduces the time and the budget while maintaining the crowdsourcing quality. In order to evaluate CAWS, we introduce an information-rich dataset called CrowdED (Crowdsourcing Evaluation Dataset). The generation of CrowdED relies on a constrained sampling approach that allows to produce a dataset which respects the requester budget and type constraints. Through its generality and richness, CrowdED helps also in plugging the benchmarking gap present in the crowdsourcing community. Using CrowdED, we evaluate the performance of CAWS in terms of the quality, the time and the budget gain. Results shows that automatic grouping is able to achieve a learning quality similar to job-based grouping, and that CAWS is able to outperform the state-of-the-art profile-based worker selection when it comes to quality, especially when strong budget ant time constraints exist. Finally, we propose CREX (CReate Enrich eXtend) which provides the tools to select and sample input tasks and to automatically generate custom crowdsourcing campaign sites in order to extend and enrich CrowdED
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Profilage des données"

1

Statistics Canada. Employment Equity Program., dir. Profile of visible minorities and aboriginal people : 1986 Census--20% sample data = Profils des minorités et des autochtones : Recensement de 1986--données, échantillon, (20%). [Ottawa] : Statistics Canada, Employment Equity Program = Statistique Canada, Programme d'équité en matière d'emploi, 1990.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ontario. Ministry of Treasury and Economics. Sectoral and Regional Policy Branch. Profile of Ontario's provincial electoral districts (Bill 77, 1986 boundaries) based on 1981 census data = : Profil des circonscriptions électorales provinciales de l'Ontario (limites établies en 1986 en vertu du Projet de loi 77) d'après les données du recensement de 1981. Toronto, Ont : Ministry of Treasury and Economics = Ministère du trésor et de l'économie, 1987.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Porter, Marion R. A Profile of post-secondary students in Canada : the 1983-1984 national post-secondary student survey ; summary national data = : Profil des étudiants du niveau postsecondaire au Canada : l'enquête nationale de 1983-1984 auprès des étudiants du niveau postsecondaire : abrégé des données pour l'ensemble du Canada. Ottawa, Ont : Education Support Sector, Department of the Secretary of State = Direction générale de l'aide à l'éducation, Secrétariat d'État du Canada, 1987.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Lau, Dorothy Wai Sim. Chinese Stardom in Participatory Cyberculture. Edinburgh University Press, 2018. http://dx.doi.org/10.3366/edinburgh/9781474430333.001.0001.

Texte intégral
Résumé :
As Chinese performers have become more visible on global screens, their professional images – once the preserve of studios and agents – have been increasingly relayed and reworked by film fans. Web technology has made searching, poaching, editing, positing, and sharing texts significantly easier. Moreover, by using a variety of seamless and innovative methods, a new mode of personality construction has been developed. With case studies of high-profile stars like Jackie Chan, Jet Li, Donnie Yen, and Michelle Yeoh, this ground-breading book examines transnational Chinese stardom as a Web-based phenomenon, and as an outcome of the participatory practices of cyber fans. By grounding the theory and praxis of Chinese stardom in a cyber-context, this book proffers a critical intervention of Chineseness and redress some inadequacies of the current scholarship on the subject by advancing the exploration of the dynamics borne out of technological apparatuses, cultural discourses, and network culture.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie