Auswahl der wissenschaftlichen Literatur zum Thema „Exploitation des données“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Exploitation des données" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Exploitation des données"

1

Poupet, Pierre. „Enregistrement et exploitation des données“. Les Nouvelles de l'archéologie 25, Nr. 1 (1986): 61–68. http://dx.doi.org/10.3406/nda.1986.1705.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

AGABRIEL, C., J. B. COULON und G. MARTY. „Facteurs de variation du rapport des teneurs en matières grasses et protéiques du lait de vache : étude dans les exploitations des Alpes du Nord“. INRAE Productions Animales 4, Nr. 2 (31.05.1991): 141–49. http://dx.doi.org/10.20870/productions-animales.1991.4.2.4326.

Der volle Inhalt der Quelle
Annotation:
Soixante deux exploitations laitières des Alpes du Nord ont fait l’objet d’une enquête détaillée concernant à la fois la structure de l’exploitation et du troupeau, la qualité des fourrages et les pratiques alimentaires hivernales et estivales. Ces données ont permis d’analyser les variations de la composition chimique du lait d’une exploitation à l’autre, et en particulier du rapport taux butyreux/taux protéique. Celui-ci a présenté des variations très importantes d’une exploitation à l’autre et d’un mois à l’autre. Selon les exploitations, ces variations sont dues surtout à celles du taux butyreux (cas le plus fréquent), ou plutôt à celles du taux protéique. Les différences de niveau de ce rapport d’une exploitation à l’autre sont difficiles à expliquer par les seules données disponibles : en particulier, compte tenu du type des vaches présentes (Abondance, Tarine et Montbéliarde), l’effet de la race ne semble pas prépondérant. Ce sont les exploitations qui maîtrisent le mieux l’alimentation hivernale et estivale des animaux (et qui présentent par ailleurs des effectifs importants et stables au cours de l’année) qui ont présenté les rapports les plus stables au cours de l’année.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Teresi, Laurent. „Exploitation des données publiques : le renouveau ?“ LEGICOM 47, Nr. 2 (2011): 51. http://dx.doi.org/10.3917/legi.047.0051.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Vandergucht, David. „ZFOREST : UN PROTOTYPE DE PLATEFORME WEB DE COVISUALISATION LIDAR, RASTER ET VECTEUR À GRANDE ÉCHELLE.“ Revue Française de Photogrammétrie et de Télédétection 1, Nr. 211-212 (30.12.2020): 129–42. http://dx.doi.org/10.52638/rfpt.2015.551.

Der volle Inhalt der Quelle
Annotation:
En recherche comme en exploitation forestière, la donnée Lidar aéroportée apporte des clefs de compréhension surla structure du terrain, de la forêt et par extension, des informations sur la biomasse aérienne. Mais pour être utile, cette donnée Lidar doit couvrir de vastes étendues tout en étant très résolue spatialement. Ces caractéristiques se traduisent par de grands volumes de données très difficiles à visualiser, manipuler et étudier sans l’aide de logiciels très onéreux.Dans le cadre du projet ANR FORESEE, nous avons développé un logiciel web, de visualisation mixte nuage de pointsLidar / surface 3D issue d’un Modèle Numérique de Terrain / carte / photographie aérienne et terrestre / donnée vectorielle : la plateforme zForest. Ce logiciel, qui s’adresse aux chercheurs en télédétection et à terme aux exploitants forestiers, permet la navigation à grande échelle dans des données massives et leur exploration, du niveau de détail le plus large (la région) jusqu’au plus fin (l’arbre). Cet outil permet la mesure, l’annotation et l’extraction des données. Il propose également une interface de programmation web (API) permettant à d’autres outils du marché d’utiliser ses données sources. zForest étant une plateforme web, elle est disponible sans installation sur tous les navigateurs internet récents, facilitant son accessibilité et son déploiement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

De Pourbaix, Isabelle, und François Nault. „Exploitation démographique d’une liste nominative unique“. Articles 11, Nr. 1 (27.10.2008): 101–30. http://dx.doi.org/10.7202/600870ar.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Cet article présente une évaluation de l’état d’une population et les principaux paramétres qui le modifient en utilisant les données fournies par une seule liste nominative. Deux approches sont utilisées, qui aboutissent à des résultats compatibles. La première se fonde sur les données agrégées c’est-à-dire la structure par âge et sexe de la population; la seconde a pour point de départ la structure des ménages et les liens entre les individus qui les composent. L’étude est réalisée à partir du recensement de la population effectué en 1840 â l’île Saint-Barthélémy, dans les Petites Antilles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Biau, A. „Exploitation des données dosimétriques, les dossiers médicaux, SISERI“. Radioprotection 46, Nr. 5 (2011): S205—S211. http://dx.doi.org/10.1051/radiopro/2011135.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Charoy, François, und Lylette Lacote-Gabrysiak. „Éléments méthodologiques pour un traitement factuel des documents administratifs et juridiques“. Documentation et bibliothèques 42, Nr. 1 (30.09.2015): 19–25. http://dx.doi.org/10.7202/1033321ar.

Der volle Inhalt der Quelle
Annotation:
Le travail décrit ici vise à permettre une exploitation factuelle de documents de type administratif ou juridique. Par exploitation factuelle il faut entendre la création d’une base de données qui permette une prise en compte précise des faits et non une simple description du contenu des documents. Diverses expérimentations ont été entreprises. Elles ont abouti à une solution satisfaisante prenant la forme d’éléments méthodologiques pour la mise en place de telles applications et d’une définition des contraintes à respecter (fourniture du texte intégral, existence de moyens d’accès différenciés à l’information, fourniture d’une description de la structure de la base de données sous la forme, par exemple, d’une classification, apparition de la dimension analytique de ce type de base de données).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Hulin, Anne-Sophie. „La gouvernance des données en droit civil québécois : comment (re)concilier protection et exploitation des données personnelles ?“ Revue internationale de droit économique XXXVI, Nr. 3 (21.04.2023): 39–61. http://dx.doi.org/10.3917/ride.363.0039.

Der volle Inhalt der Quelle
Annotation:
Alors que les projets de mutualisation des données dans divers secteurs – incluant ceux de la santé – se multiplient au Québec, la question de leur encadrement juridique se pose avec acuité. En effet, comment garantir que cette forme d’exploitation collective des données ne se traduise pas en bout de ligne par une augmentation de l’atteinte aux droits et intérêts des personnes physiques ? Comment éviter que ces modes d'exploitation des données, souvent portés par des considérations d'intérêt général, ne s'enlisent davantage dans la défiance et l’inacceptabilité sociale alors qu'en dépend l'innovation économique et sociale ? Dès lors, ce texte a pour objet de présenter la fiducie de données comme structure juridique de gouvernance des données et d’exposer en quoi cet outil émergent s’avère pertinent dans le contexte de projets de mutualisation des données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Willcox, George. „Exploitation des espèces ligneuses au Proche-Orient : données anthracologiques“. Paléorient 17, Nr. 2 (1991): 117–26. http://dx.doi.org/10.3406/paleo.1991.4555.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Legoux, Luc, und Jean-Paul Grémy. „L'exploitation statistique des données administratives : l'exemple de la base informatique de l'OFPRA“. Sociétés contemporaines 14-15, Nr. 2-3 (01.09.1993): 43–57. http://dx.doi.org/10.3917/soco.p1993.14n1.0043.

Der volle Inhalt der Quelle
Annotation:
Résumé La création de la base de données informatisées sur les demandes d'asile politique en France a été réalisée en 1989 avec un objectif quasi-exclusif : gérer efficacement le suivi des dossiers afin de rattraper les retards accumulés au cours des années précédentes. Cet objectif a pu être atteint grâce à une sélection des informations conservées dans la base, au détriment de données dont l'intérêt était plus scientifique que pragmatique. Cet article expose les moyens utilisés pour constituer, à partir de cette base administrative, une base de données plus complète, plus maniable, et permettant une exploitation statistique plus détaillée et plus rigoureuse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Exploitation des données"

1

Ba, Mouhamadou Lamine. „Exploitation de la structure des données incertaines“. Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0013.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à certains problèmes fondamentaux découlant d’un besoin accru de gestion des incertitudes dans les applications Web multi-sources ayant de la structure, à savoir le contrôle de versions incertaines dans les plates-formes Web à large échelle, l’intégration de sources Web incertaines sous contraintes, et la découverte de la vérité à partir de plusieurs sources Web structurées. Ses contributions majeures sont : la gestion de l’incertitude dans le contrôle de versions de données arborescentes en s’appuyant sur un modèle XML probabiliste ; les étapes initiales vers un système d’intégration XML probabiliste de sources Web incertaines et dépendantes ; l’introduction de mesures de précision pour les données géographiques et ; la conception d’algorithmes d’exploration pour un partitionnement optimal de l’ensemble des attributs dans un processus de recherche de la vérité sur des sources Web conflictuelles
This thesis addresses some fundamental problems inherent to the need of uncertainty handling in multi-source Web applications with structured information, namely uncertain version control in Web-scale collaborative editing platforms, integration of uncertain Web sources under constraints, and truth finding over structured Web sources. Its major contributions are: uncertainty management in version control of treestructured data using a probabilistic XML model; initial steps towards a probabilistic XML data integration system for uncertain and dependent Web sources; precision measures for location data and; exploration algorithms for an optimal partitioning of the input attribute set during a truth finding process over conflicting Web sources
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Arnaud, Bérenger. „Exploitation et partage de données hétérogènes et dynamiques“. Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20025/document.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte de données industrielles et numériques, le développement d'un outil sur mesure pour une tâche particulière est couteux par de nombreux aspects. À l'inverse, l'adaptation d'outils génériques l'est également en particularisation (personnalisation, adaptation, extension, …), pour les développeurs comme pour les utilisateurs finaux. Nos approches visent à considérer les différents niveaux d'interactions pour améliorer l'exploitation des données fournies ou générées en collaboration.Les définitions et problématiques liées aux données dépendent le plus souvent des domaines dans lesquelles elles sont traitées. Pour ce travail, nous avons opté pour une approche holistique considérant ensemble des perspectives différentes. Le résultat est une synthèse des concepts émergeant montrant les équivalences d'un domaine à l'autre. La première contribution consiste à améliorer le marquage collaboratif de documents. Deux améliorations sont proposées par notre outil Coviz. (1) L'étiquetage des ressources est propre à chaque utilisateur qui organise ses vocables par une poly-hiérarchie nominative. Chacun peut considérer les concepts des autres par une relation de partage. Le système fournit également du contenu connexe via un moissonnage des archives ouvertes. (2) L'outil applique le concept de facette des données à l'interface puis les combine avec une recherche par mot-clé. Ce dernier point est commun à tous les utilisateurs, le système considère chacune des actions individuelles comme celles d'un groupe.La contribution majeure, confidentielle, est un framework baptisé DIP pour Data Interaction and Presentation. Son but est d'augmenter la liberté d'expression de l'utilisateur sur l'interaction et l'accès aux données. Il diminue les contraintes machines et logicielles en adjoignant une nouvelle voix d'accès direct entre l'utilisateur et les données disponibles, ainsi que des points d'« articulation » génériques. D'un point de vue final, l'utilisateur gagne en expression de filtrage, en partage, en maintien de l'état de sa navigation, en automatisation de ses tâches courantes, etc.Il a été testé en condition réelle de stress, de ressources et d'utilisation avec le logiciel KeePlace. Ce dernier a d'ailleurs été l'initiateur de cette thèse
In the context of numeric data, the software development costs entail a number of cost factors. In contrast, adapting generic tools has its own set of costs, requiring developer's integration and final user's adaptation. The aim of our approach is to consider the different points of interaction with the data to improve the exploitation of data, whether provided or generated from collaboration.The definitions and problems related to data are dependent upon the domain from which the data come and the treatment that have been applied to them. In this work we have opted for a holistic approach where we consider the range of angles. The result is a summary of the emergent concepts and domain equivalences.The first contribution consists of improving collaborative document mark-up. Two improvements are proposed by out tool – Coviz –. 1) Resource tagging which is unique to each user, who organises their own labels according to their personal poly-hierarchy. Each user may take into consideration other users approaches through sharing of tags. The system supplies additional context through a harvesting of documents in open archives. 2) The tool applies the concept of facets to the interface and then combines them to provide a search by keyword or characteristic selection. This point is shared by all users and the actions of an individual user impact the whole group.The major contribution, which is confidential, is a framework christened DIP for Data Interaction and Presentation. Its goal is to increase the freedom of expression of the user over the interaction and access to data. It reduces the hardware and software constrains by adding a new access point between the user and the raw data as well as generic pivots. From a final point of view the user gains in expression of filtering, in sharing, in state persistence of the navigator, in automation of day-to-day tasks, etc.DIP has been stress tested under real-life conditions of users and limited resources with the software KeePlace. Acknowledgement is given to KeePlace who initiated this thesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Khelil, Amar. „Elaboration d'un système de stockage et exploitation de données pluviométriques“. Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Der volle Inhalt der Quelle
Annotation:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ponchateau, Cyrille. „Conception et exploitation d'une base de modèles : application aux data sciences“. Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Der volle Inhalt der Quelle
Annotation:
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Letessier, Pierre. „Découverte et exploitation d'objets visuels fréquents dans des collections multimédia“. Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0014.

Der volle Inhalt der Quelle
Annotation:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

De, Vettor Pierre. „A Resource-Oriented Architecture for Integration and Exploitation of Linked Data“. Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1176/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l'intégration de données brutes provenant de sources hétérogènes sur le Web. L'objectif global est de fournir une architecture générique et modulable capable de combiner, de façon sémantique et intelligente, ces données hétérogènes dans le but de les rendre réutilisables. Ce travail est motivé par un scenario réel de l'entreprise Audience Labs permettant une mise à l'échelle de cette architecture. Dans ce rapport, nous proposons de nouveaux modèles et techniques permettant d'adapter le processus de combinaison et d'intégration à la diversité des sources de données impliquées. Les problématiques sont une gestion transparente et dynamique des sources de données, passage à l'échelle et responsivité par rapport au nombre de sources, adaptabilité au caractéristiques de sources, et finalement, consistance des données produites(données cohérentes, sans erreurs ni doublons). Pour répondre à ces problématiques, nous proposons un méta-modèle pour représenter ces sources selon leurs caractéristiques, liées à l'accès (URI) ou à l'extraction (format) des données, mais aussi au capacités physiques des sources (latence, volume). En s'appuyant sur cette formalisation, nous proposent différentes stratégies d'accès aux données, afin d'adapter les traitements aux spécificités des sources. En se basant sur ces modèles et stratégies, nous proposons une architecture orientée ressource, ou tout les composants sont accessibles par HTTP via leurs URI. En se basant sur les caractéristiques des sources, sont générés des workflows d'exécution spécifiques et adapté, permettant d'orchestrer les différentes taches du processus d'intégration de façon optimale, en donnant différentes priorités à chacune des tâches. Ainsi, les temps de traitements sont diminuées, ainsi que les volumes des données échangées. Afin d'améliorer la qualité des données produites par notre approches, l'accent est mis sur l'incertitude qui peut apparaître dans les données sur le Web. Nous proposons un modèle, permettant de représenter cette incertitude, au travers du concept de ressource Web incertaines, basé sur un modèle probabiliste ou chaque ressource peut avoir plusieurs représentation possibles, avec une certaine probabilité. Cette approche sera à l'origine d'une nouvelle optimisation de l'architecture pour permettre de prendre en compte l'incertitude pendant la combinaison des données
In this thesis, we focus on data integration of raw data coming from heterogeneous and multi-origin data sources on the Web. The global objective is to provide a generic and adaptive architecture able to analyze and combine this heterogeneous, informal, and sometimes meaningless data into a coherent smart data set. We define smart data as significant, semantically explicit data, ready to be used to fulfill the stakeholders' objective. This work is motivated by a live scenario from the French {\em Audience Labs} company. In this report, we propose new models and techniques to adapt the combination and integration process to the diversity of data sources. We focus on transparency and dynamicity in data source management, scalability and responsivity according to the number of data sources, adaptability to data source characteristics, and finally consistency of produced data (coherent data, without errors and duplicates). In order to address these challenges, we first propose a meta-models in order to represent the variety of data source characteristics, related to access (URI, authentication) extraction (request format), or physical characteristics (volume, latency). By relying on this coherent formalization of data sources, we define different data access strategies in order to adapt access and processing to data source capabilities. With help form these models and strategies, we propose a distributed resource oriented software architecture, where each component is freely accessible through REST via its URI. The orchestration of the different tasks of the integration process can be done in an optimized way, regarding data source and data characteristics. This data allows us to generate an adapted workflow, where tasks are prioritized amongst other in order to fasten the process, and by limiting the quantity of data transfered. In order to improve the data quality of our approach, we then focus on the data uncertainty that could appear in a Web context, and propose a model to represent uncertainty in a Web context. We introduce the concept of Web resource, based on a probabilistic model where each resource can have different possible representations, each with a probability. This approach will be the basis of a new architecture optimization allowing to take uncertainty into account during our combination process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Fournier, Jonathan. „Exploitation de données tridimensionnelles pour la cartographie et l'exploration autonome d'environnements urbains“. Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24421/24421.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Lê, Laetitia Minh Mai. „Exploitation des données spectrales dans la sécurisation du circuit des médicaments anticancéreux“. Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112148/document.

Der volle Inhalt der Quelle
Annotation:
La plupart des médicaments anticancéreux sont des substances à marge thérapeutique étroite, les erreurs médicamenteuses peuvent avoir des conséquences majeures pour les patients. Il est de la responsabilité pharmaceutique de garantir le bon médicament à la bonne dose par la mise en place d’un contrôle qualité des préparations avant administration. Par ailleurs, ces molécules potentiellement cancérogènes, mutagènes et reprotoxiques présentent un risque pour les personnes exposées notamment le personnel de santé. L’objectif de ce travail de thèse a été de développer des outils permettant d’optimiser la sécurité du circuit de ces médicaments anticancéreux à l’hôpital tant pour le patient que pour le personnel de santé. Des outils analytiques associés à des méthodes d’interprétation des données issues de la chimiométrie et de la gestion de risque ont été mis en œuvre afin de répondre à cette problématique.Dans le cadre de la sécurisation du personnel, la recherche de traces de molécules anticancéreuses dérivées du platine a permis de mettre en évidence les zones les plus contaminées. Sur la base de ces contaminations et des conditions de travail, une méthodologie d’analyse de risque multicritère a été développée pour évaluer le risque d’exposition du personnel. Face au risque encouru, différentes mesures correctives ont été envisagées et des études évaluant plus spécifiquement l’efficacité détergente des opérations de décontamination des surfaces et des flacons ont été menées.En parallèle, des essais visant à sécuriser les préparations avant administration ont été conduits sur deux molécules anticancéreuses : le 5-fluorouracile et la gemcitabine. Au regard de leur caractère non destructif, non invasif et de ce fait, plus sécurisé, les spectroscopies vibrationnelles Raman et proche infrarouge ont été explorées. Les données spectrales (zones spectrales et prétraitements) ont été optimisées par des analyses multivariées ComDim pour développer des modèles de régression PLS prédisant la concentration en principe actif en solution. Les résultats ont montré la faisabilité et la complémentarité des techniques de spectroscopie Raman et proche infrarouge pour la détermination quantitative des molécules anticancéreuses
Most of the anticancer drugs are defined by a narrow therapeutic margin; therefore medical errors can have major consequences on patients. Thus, it’s necessary to guarantee the good drug at the good dose by the implementation of a quality control of the preparation before administration. These potentially carcinogenic, mutagenic or teratogenic drugs present a risk for exposed people especially healthcare workers.The aim of this study was to develop tools which can optimize the safety of the cytotoxic medication circuit in hospitals, for the patient as much as for healthcare workers. In order to respond to these problematics, analytical tools have been associated with different methods of data interpretation of chemometric and risk management.To improve healthcare workers’ safety, environmental monitoring looking for traces of platinum compound cytotoxic drugs were performed to identify the most contaminated areas. Based on these contaminations and working conditions, a methodology of multi-criteria risk analysis has been developed to quantify the risk of exposure of healthcare workers. Regarding the risk, various corrective measures were considered. Thus, studies based on the detergent efficiency of decontamination protocols used to clean workplace surfaces and cytotoxic vials were conducted.In parallel, assays were performed on two anticancer molecules to secure cytotoxic preparations before administration: 5-fluorouracile and gemcitabine. Regarding their non-destructive, non-invasive properties and therefore, more secured handling, Raman and near infrared spectroscopy were explored. Spectral data (spectral zones and pretreatments) were optimized by multivariate analyses ComDim to develop models of regression PLS predicting the concentration of the active ingredient in solution. Results showed the feasibility and the complementarity of these two spectroscopies in the quantitative determination of the cytotoxic drugs.These works participate in the continuous approach of quality assurance implemented in numerous health institutions. We hope that they will contribute to durably decrease risks associated to cytotoxic drugs for both patients and healthcare workers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Correa, Beltran William. „Découverte et exploitation de proportions analogiques dans les bases de données relationnelles“. Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S110/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons aux proportions analogiques dans le contexte des bases de données relationnelles. Les proportions analogiques permettent de lier quatre éléments dans une relation du type ''A est à B ce que C est à D''. Par exemple, « Paris est à la France ce que Rome est à l'Italie ». Nous avons étudié le problème de la prédiction de valeurs manquantes dans une base de données en utilisant les proportions analogiques. Un algorithme de classification fondé sur les proportions analogiques a été modifié afin de résoudre ce problème. Puis, nous avons étudié les propriétés des éléments appartenant à l'ensemble d'apprentissage des classificateurs analogiques fréquemment exploités pour calculer la prédiction. Ceci nous a permis de réduire considérablement la taille de cet ensemble par élimination des éléments peu pertinents et par conséquent, de diminuer les temps d'exécution de ces classificateurs. La deuxième partie de la thèse a pour objectif de découvrir de nouveaux patrons basés sur la relation d'analogie, i.e., des parallèles, dans les bases de données. Nous avons montré qu'il est possible d'extraire ces patrons en s'appuyant sur des approches de clustering. Les clusters produits par de telles techniques présentent aussi un intérêt pour l'évaluation de requêtes recherchant des patrons d'analogie dans les bases de données. Dans cette perspective, nous avons proposé d'étendre le langage de requêtes SQL pour pouvoir trouver des quadruplets d'une base de données satisfaisant une proportion analogique. Nous avons proposé différentes stratégies d'évaluation pour de telles requêtes, et avons comparé expérimentalementleurs performances
In this thesis, we are interested in the notion of analogical proportions in a relational database context. An analogical proportion is a statement of the form “A is to B as C is to D”, expressing that the relation beween A and B is the same as the relation between C and D. For instance, one may say that “Paris is to France as Rome is to Italy”. We studied the problem of imputing missing values in a relational database by means of analogical proportions. A classification algorithm based on analogical proportions has been modified in order to impute missing values. Then, we studied how analogical classifiers work in order to see if their processing could be simplified. We showed how some typeof analogical proportions is more useful than the others when performing classification. We then proposed an algorithm using this information, which allowed us to considerably reduce the size of the training set used by the analogical classificationalgorithm, and hence to reduce its execution time. In the second part of this thesis, we payed a particular attention to the mining of combinations of four tuples bound by an analogical relationship. For doing so, we used several clustering algorithms, and we proposed some modifications to them, in order tomake each obtained cluster represent a set of analogical proportions. Using the results of the clustering algorithms, we studied how to efficiently retrieve the analogical proportions in a database by means of queries. For doing so, we proposed to extend the SQL query language in order to retrieve from a database the quadruples of tuples satisfying an analogical proportion. We proposed severalquery evaluation strategies and experimentally compared their performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Procopio, Pietro. „Foreground implications in the scientific exploitation of CMB data“. Paris 7, 2009. http://www.theses.fr/2009PA077252.

Der volle Inhalt der Quelle
Annotation:
La première partie de mon travail de thèse se concentre sur la fonction de distribution des photons CMB. En particulier, je montre les implémentations et les phases actualisantes caractérisantes un code d'intégration numérique (KYPRIX) pour la solution de l'équation de Kompaneets dans le contexte cosmologique. Elles ont été aussi exécutées des implémentations physiques: l'introduction de la constante cosmologique dans les équations consacrées pour calculer l'évolution de l'Univers primordial; le choix des abondances chimiques primordiales de H et de He maintenant est possible; les fractions de ionisation pour les espèces impliquées ont été introduites dans les processus physiques; il a été créé une interface optionnelle qui relie KYPRSX avec les codes, comme RECFAST, pour calculer une histoire de recombinaison de la fraction de ionisation de H et de He. Pendant mon deuxième stage à APC j'ai exécuté plusieurs épreuves sur le Planck Sky Model. Les épreuves ont impliqué les deux dernières réalisations du modèle d'émission Galactique, les cartes de foregrounds Galactique tirées par les datus de WMAP et une carte propre de anisotropy du CMB. La dernière réalisation du PSM de la prédiction d'intensité totale des processus Galactiques a montré des résultats en harmonie avec les précédents pour presque toutes les fréquences évaluées, pendant que cela a besoin encore de quelques implémentations à 23 GHz, o l'émission de synchrotron et l'émission de free-free sont plus prominents. J'ai utilisé SM1CA et un autre filtre (le filtre de FFT) que j'ai développé, pour un retraitement de l'IRIS mapset. Les améliorations dramatiques obtenues sur les cartes d'IRIS sont clairement visibles juste par l'oeil
The first part of my thesis work focus on the CMB photon distribution function. I show the implementations and the updating phases characterizing a numerical integration code (KYPRIX) for the solution of the Kompaneets equation in cosmological context. Physical implementations were also performed: the introduction of the cosmological constant; the choice of the primordial chemical abundances of H and He is now possible; the ionization fractions for the species involved have been introduced; it was created an optional interface that links KYPRIX with codes, like RECFAST, in order to calculate a recombination history of the ionization fraction of H and He. Ail of the physical implementations contributed to perform more realistic simulation of the spectral distortion of the CMB. During my second stage at APC I performed several tests on the Planck Sky Model. The tests involved the latest two release of Galactic emission model, the Galactic foreground template derived by WMAP data and a clean CMB anisotropy map. The last release of the PSM total intensity prediction of the Galactic processes showed results consistent with the previous ones for almost ail the frequencies tested, while it still needs some tuning at 23 GHz, where synchrotron emission and free-free emission are more prominent. I started using SMICA (component separation techniques) during my first stage at APC, in 2007. 1 used SMICA, and another filter (FFT filter) I developed, for a reprocessing of the IRIS mapset. A FFT filter was developed for this purpose and I used the filter only on localized regions, not on the full-sky maps. The dramatic improvements obtained on the IRIS maps are clearly visible just by eye
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Exploitation des données"

1

Hutton, William. Le Canada et l'Illinois comparés, par William Hutton, Ecr., secrétaire du Bureau d'agriculture: En réponse aux données incorrectes de M. Caird, publiées dernièrement dans son pamphlet intitulé "Exploitation des terres des prairies d'Amérique". [Québec?: s.n.], 1985.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Canada. Human Resources Development Canada. Évaluation et exploitation des donneés: Évaluation du secrétariat national 'a l'alphabétisation. Ottawa: Développment des ressources humaines Canada, 1995.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ontario. Esquisse de cours 12e année: Mathématiques de la gestion des données mdm4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Desse, Jean. "Ostéo": Base-résau de données ostéométriques pour l'archéozoologie : procédures, codages, exploitation des données, organisation du réseau. Paris: Eds. du CNRS, 1985.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Université de Paris I: Panthéon-Sorbonne, Hrsg. L'affectation du travail dans les exploitations agricoles: Approche microéconomique et application sur données françaises. Grenoble: A.N.R.T, Université Pierre Mendes France (Grenoble II), 1993.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Division, Statistics Canada Agriculture, Hrsg. Census overview of canadian agriculture, 1971-1991 =: Aperçu de l'agriculture canadienne selon les données du recensement, 1971-1991. Ottawa: Statistics Canada, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Project, Deep Sea Drilling, Hrsg. La base de données du Deep Sea Drilling Project: Exploitation relationnelle et application à l'étude de la sédimentation néogène. Villeurbanne: Centre des sciences de la terre, Université Claude Bernard, 1992.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Eidg. Forschungsanstalt für Betriebswirtschaft und Landtechnik., Hrsg. Ergebnisse der zentralen Auswertung von Buchhaltungsdaten: Hauptbericht 1984 über die Testbetriebe = Résultats du dépouillement centralisé des données comptables : rapport principal 1984 sur les exploitations-témoins. Tänikon: Eidg. Forschungsanstalt für Betriebswirtschaft und Landtechnik, 1985.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Research and Technology Organization. Applied Vehicle Technology Panel. Workshop. Exploitation of structural loads/health data for reduced life cycle costs =: Exploitation des donnees relatives aux efforts structuraux et al'integrite des structures en vue de la diminution des couts globaux de possession : papers presented at the Specialists' Meeting of the RTO Applied in Brussels, Belgium, 13-14 May 1998. Neuilly-sur-Seine: Research and Technology Organization, 1998.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Bacon, Jean. Concurrent systems: An integrated approach to operating systems, distributed systems and database. 3. Aufl. Harlow, England: Addison-Wesley, 2002.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Exploitation des données"

1

Alletsgruber, Julia. „Vers une exploitation des données morphologiques du FEW au service de l’étymologie: le module de repérage affixal“. In Actas del XXVI Congreso Internacional de Lingüística y Filología Románica, herausgegeben von Emili Casanova und Cesáreo Calvo, 469–78. Berlin, Boston: DE GRUYTER, 2013. http://dx.doi.org/10.1515/9783110299939.469.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lombez, Christine. „Chapter 8. Les traductions littéraires dans les périodiques français sous l’Occupation et leur exploitation dans la base de données TSOcc“. In Literary Translation in Periodicals, 203–22. Amsterdam: John Benjamins Publishing Company, 2020. http://dx.doi.org/10.1075/btl.155.08lom.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Blanc, Antoine, Carole Drucker-Godard und Sylvie Ehlinger. „Chapitre 17. Exploitation des données textuelles“. In Méthodes de recherche en management, 551–73. Dunod, 2014. http://dx.doi.org/10.3917/dunod.thiet.2014.01.0551.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Dancette, Jeanne. „Chapitre v. Exploitation statistique des données empiriques“. In Parcours de traduction, 175–88. Presses universitaires du Septentrion, 1995. http://dx.doi.org/10.4000/books.septentrion.124478.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Beneteau, Pierre-Eric. „Chapitre 1. Collecte, identification et exploitation des données“. In La publicité à l'heure de la data, 25–68. Dunod, 2018. http://dx.doi.org/10.3917/dunod.allar.2018.01.0025.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Étienne, Richard. „Chapitre 5. L’approche exploratoire : techniques, finalités, exploitation des données“. In Enquêter dans les métiers de l’humain, 99–108. Éditions Raison et Passions, 2022. http://dx.doi.org/10.3917/rp.alber.2022.01.0099.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Mangeot, Mathieu, und Valérie Bellynck. „Un devin de microstructures“. In Lexique(s) et genre(s) textuel(s) : approches sur corpus, 243–58. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.2921.

Der volle Inhalt der Quelle
Annotation:
Dans cet article, nous présentons un outil pour annoter une ressource non structurée ou semi-structurée, de façon à automatiser l’import de ses données dans un environnement générique facilitant et uniformisant son exploitation. Cet outil s’appuie sur le calcul d’une signature, caractérisant la ressource par des informations comptables sur ses éléments, et sur des heuristiques exploitant les statistiques de la signature pour repérer les entrées et la microstructure de chaque entrée dans le cas d’une ressource lexicale à importer dans la plateforme de bases lexicales Jibiki. Le résultat produit est géré dans iPolex, un entrepôt dédié aux traitements de fichiers de ressources lexicales permettant d’y ajouter des méta-données. La plateforme Jibiki accède à iPoLex pour importer directement des ressources lexicales bien formées et suffisamment renseignées. Le processus d’import ainsi constitué est utilisé pour créer et peupler des bases lexicales dans Jibiki. Les ressources ainsi importées sont ensuite consultables et éditables en ligne.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Grusenmeye, Corinne. „4 Les accidents liés à la sous-traitance. Exploitation de la base de données Epicea“. In La sous-traitance interne, 98–116. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0842-7-006.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Grusenmeye, Corinne. „4 Les accidents liés à la sous-traitance. Exploitation de la base de données Epicea“. In La sous-traitance interne, 98–116. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0842-7.c006.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

MEUNIER, Jean-marc. „Internet“. In Algorithmes et Société, 47–54. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4557.

Der volle Inhalt der Quelle
Annotation:
Avec le développement d'Internet nous sommes passé d'une distribution de l'information à un Web d'expression avec pour principale conséquence une circulation accrue des données et leur exploitation par des algorithmes. Dans cet essai, nous proposons de voir Internet comme un écosystème documentaire et informationnel dynamique dans lequel agents humains et algorithmiques interagissent. L'approche instrumentale permet de mieux comprendre la coopétition entre ces agents pour la régulation des contenus, leur production et leur diffusion. A la fois agent et instrument, les algorithmes interviennent dans (i) la caractérisation et la hiérarchisation de l'information et des documents; (ii) leur diffusion et l'affichage de celles-ci et (iii) la production de documents. Dans cet article, nous essayerons de développer l'idée que malgré des régulations algorithmiques fortes les agents humains peuvent faire contrepoids et reprendre le contrôle des règles de diffusion en développant des formes d'instrumentalisation de l'écosystème notamment avec le développement de communautés épistémiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Exploitation des données"

1

Ramus Serment, Caroline, Tamisier Damien und Ana Garcia de Blanes. „La durabilité : management et exploitation des données en clientèle dans le secteur automobile“. In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61724.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tissot, Claire. „Exploitation textuelle de données de retour d'expérience sous l'angle de la prévention des risques professionnels“. In Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61745.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Benoit, Michel, Florence Lafon und Gérard Goasguen. „Constitution et exploitation d’une base de données d’états de mer le long des côtes françaises par simulation numérique sur 23 ans“. In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2006. http://dx.doi.org/10.5150/jngcgc.2006.003-b.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Exploitation des données"

1

Audet, René, und Tom Lebrun. Livre blanc : L'intelligence artificielle et le monde du livre. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, September 2020. http://dx.doi.org/10.61737/zhxd1856.

Der volle Inhalt der Quelle
Annotation:
Québec et Montréal, le 21 septembre 2020 – L’intelligence artificielle (IA) dans le monde du livre est une réalité. En effet, elle n’est pas réservée aux plateformes de vente ou aux applications médicales. L’IA peut assister l’écriture, accompagner le travail éditorial ou encore aider le libraire. Elle peut répondre à des besoins criants ; malgré ses limites évidentes, elle permet d’envisager des applications inédites dans la chaîne du livre, qui font ici l’objet de recommandations précises. Ce livre blanc, rédigé par deux spécialistes du livre et de l’intelligence artificielle, vise à identifier des pistes d’action pour mettre l’IA au service des nombreux maillons du monde du livre. « Dans ce milieu, où doivent être menées les réflexions utiles à la planification de l’avenir immédiat de ce créneau culturel, l’idée d’une concertation de certains de ses acteurs sur l’utilisation d’IA (voire l’éventuelle mise en commun des données collectées) est une piste à suivre. » Cette concertation est appelée par nombre d’experts, qui témoignent dans ce Livre blanc des enjeux propres au contexte culturel actuel menacé par les géants du commerce : « Si l’IA appelle une vigilance constante concernant son utilisation, il paraît important pour les acteurs du monde du livre de rester très attentifs aux avancées technologiques, tant à ce qu’elles pourraient bousculer qu’à ce qu’elles pourraient apporter. » (Virginie Clayssen, Éditis / Commission numérique du Syndicat national de l’édition, France) Ainsi, « la voie dorée pour l’introduction d’IA, pensée comme intelligence augmentée, dans les différents maillons de la chaîne est sans aucun doute celle d’une exploitation des différentes données déjà disponibles ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie