Academic literature on the topic 'Analyse de données textuellees'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Analyse de données textuellees.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Analyse de données textuellees":

1

Salem, André. "Segments répétés et analyse statistique des données textuelles." Histoire & Mesure 1, no. 2 (1986): 5–28. http://dx.doi.org/10.3406/hism.1986.1518.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

ASSIS, Y., A. NAFI, X. NI, A. SAMET, and G. GUARINO. "Analyse textuelle des RPQS pour la constitution de bases de connaissances." 3, no. 3 (March 22, 2021): 31–36. http://dx.doi.org/10.36904/tsm/202103031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rapport annuel sur le prix et la qualité du service de l’eau (RPQS) constitue une source potentielle pour accéder à des informations indisponibles dans le système d’information des services publics d’eau et d’assainissement (Sispea). Cependant, le format textuel des rapports rend difficile leur exploitation sur plusieurs années ou à grande échelle dans une optique d’analyse de données massives. Notre travail s’intéresse à l’utilisation d’approches de traitement automatique du langage pour puiser de l’information dans ces rapports afin de constituer une base de connaissances à l’échelle soit d’un service, soit de plusieurs services. Cette base peut servir pour valider/compléter en partie les données contenues dans la base Sispea sujette à des erreurs ou à des oublis, mais elle peut également constituer une source qui alimente des modèles prédictifs à des fins d’aide à la décision. Dans cet article, nous développons un programme informatique fondé sur notre solution Ro-CamemBERT (Recurrence over CamemBERT) qui est un modèle de traitement automatique de la langue française basé sur l’apprentissage profond ou « deep learning », ce dernier consiste à faire apprendre à un modèle ou à une machine à partir d’un réseau neuronal artificiel, qui est une architecture spécifique formée de couches qui structurent des fonctions explicatives entre des extrants (variables expliquées) et une masse de données (variables explicatives). Le programme ainsi développé permet de répondre automatiquement à des questions dont les réponses se trouvent potentiellement dans les RPQS. Le décideur peut formuler des questions dont la réponse constitue une donnée recherchée. Il est alors possible de compléter une base de données existante ou d’en créer une nouvelle. Le processus d’analyse des rapports est ainsi automatisé, une évaluation de l’erreur des réponses automatiques est également effectuée pour mesurer l’écart possible entre les réponses obtenues et celles attendues. Le modèle développé apparaît comme fiable à hauteur de 80 %. Il a été testé sur des RPQS de service d’eau en Alsace.
3

Gervais, Roger. "Analyse de données textuelles informatisée. Comment la pensée complexe et l’approche relationnelle peuvent nourrir quelques considérations méthodologiques." Nouvelles perspectives en sciences sociales 11, no. 1 (April 1, 2016): 181–215. http://dx.doi.org/10.7202/1035936ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article explore deux préoccupations méthodologiques liées à la méta-analyse de données textuelles : 1) le danger de la « décontextualisation » des idées comme conséquence d’une quantification des données textuelles; et 2) le principe selon lequel il importe de déterminer le cadre historique et l’origine du document avant de procéder à l’analyse. Pour ce faire, nous nous appuyons sur le traitement de 11 020 articles de périodiques parus au Canada et en France en 2005 effectué par le logiciel SPAD. Nous concluons que ce logiciel répond bien à la première préoccupation. SPAD produit des analyses de facteurs des données lexicales tout en offrant au chercheur la possibilité de retourner au texte et de vérifier le « sens » des mots. Toutefois, notre étude de cas montre aussi comment un échantillon de cette taille rend difficile la prise en considération a priori du cadre historique et de l’origine du document. Pour montrer comment il est possible de réaliser des méta-analyses en dépit de cette difficulté, nous nous référons à des principes proposés par les études relationnelles et par la systémique complexe.
4

Bécue, Mónica. "Ludovic Lebart, André Salem (1988). Analyse Statistique de Données Textuelles." Papers. Revista de Sociologia 37 (July 1, 1991): 143. http://dx.doi.org/10.5565/rev/papers/v37n0.1601.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Paindorge, Martine, Jacques Kerneis, and Valérie Fontanieu. "Analyse de données textuelles informatisée : l’articulation de trois méthodologies, avantages et limites." Nouvelles perspectives en sciences sociales 11, no. 1 (April 1, 2016): 65–92. http://dx.doi.org/10.7202/1035933ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous interrogeons sur les méthodologies à utiliser pour analyser le contenu des programmes et documents d’accompagnement publiés par le ministère de l’Éducation Nationale en France. Ce corpus textuel présente une forme particulière dans la mesure où les paragraphes de texte sont complétés de tableaux et graphismes variés. L’article présente une étude exploratoire et précise d’abord pourquoi et comment nous articulons deux méthodologies d’analyse logicielle (Alceste et Tropes) et une analyse dite « manuelle ». Les résultats obtenus indiquent des fonctions similaires et une complémentarité. Nous précisons enfin les conditions à respecter pour mener à bien ce travail, les avantages et les limites inhérentes.
6

Ganassali, Stéphane. "Faire parler les mots : vers un cadre méthodologique pour l’analyse thématique des réponses aux questions ouvertes." Décisions Marketing N° 51, no. 3 (August 1, 2008): 55–67. http://dx.doi.org/10.3917/dm.051.0055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article vise à fournir aux chercheurs et aux praticiens un guide méthodologique pour mener leurs analyses thématiques sur les données textuelles issues de réponses aux questions ouvertes. Quatre types de méthodes sont présentées, à employer en fonction du volume du corpus et de la pré-existence d’une grille de codification (ou « code-book »). S’appuyant sur deux cas réels (dont l’un exploite 4 936 réponses), l’article propose une illustration concrète des techniques suivantes : tableau des réponses, analyse de contenu automatisée, analyse factorielle des cooccurrences et regroupement par dictionnaire thématique à partir d’une réduction lexicale. L’extraction des verbatims est évoquée enfin comme une illustration possible des résultats issus des analyses préalablement présentées.
7

Chabin, Marie-Anne, and Édouard Vasseur. "Exploitation des contenus versus analyse des documents : exemple des cahiers citoyens 2019." La Gazette des archives 262, no. 2 (2021): 103–15. http://dx.doi.org/10.3406/gazar.2021.6050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Grand débat national organisé par le gouvernement au début de l''année 2019 dans le contexte du mouvement social des Gilets jaunes a produit un matériau documentaire énorme dont le contenu a été converti en données textuelles pour être analysé à l''aide d''algorithmes. Les cahiers citoyens (environ 20 000) sont la composante papier de cet ensemble. Or, l''exploitation algorithmique a laissé de côté l''étude des supports, la présentation formelle, les écritures, les styles, autrement dit le «comment » à côté du «quoi » . Cet article s''attache à montrer que la méthode diplomatique, avec la grille de lecture et d’analyse définie par Jean Mabillon au XVIIe siècle, permet de dégager de très nombreuses informations sur les contributions et les contributeurs, données qui n''ont pas été collectées en tant que telles et n''ont donc pas été exploitées dans la synthèse officielle du Grand débat.
8

Fouqueré, Christophe, and Fabrice Issac. "Corpus issus du Web : constitution et analyse informationnelle." Revue québécoise de linguistique 32, no. 1 (February 20, 2006): 111–34. http://dx.doi.org/10.7202/012246ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Comparé à d’autres sources d’informations (documents techniques, articles de journaux, ...), le Web est une source quasi infinie d’informations de toute nature. Cet avantage peut s’avérer contreproductif si une information pertinente se trouve noyée dans une masse d’informations diverses. Notre travail tente donc d’évaluer dans quelle mesure des techniques de traitement automatique du langage naturel peuvent aider dans la recherche d’informations lorsque la base de données textuelles est non organisée. Plus concrètement, notre étude vise la spécification de mécanismes de reformulation de requêtes. Nous tentons ici de décrire la méthodologie de constitution de corpus suivie, puis nous analysons la pertinence informationnelle des pages récupérables sur le web lorsqu’on fait varier la requête initiale.
9

Baider, Fabienne. "Par ailleurs et d’ailleurs : marqueurs linguistiques de « rupture » textuelle ou marqueurs de continuation argumentative ?" SHS Web of Conferences 46 (2018): 01006. http://dx.doi.org/10.1051/shsconf/20184601006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cet article sont étudiées de manière contrastive les locutions d’ailleurs et par ailleurs dans des données orales et écrites. En effet des travaux précédents ont établi à partir d’un corpus d’entretien d’une personne politique: 1. L’emploi de d’ailleurs lors de l’exégèse d’arguments clefs d’une polémique; 2. Une fonction stratégique dans l’allocation des tours de cette locution adverbiale; 3. La quasi absence de par ailleurs dans ces données. Ce travail reprend ces observations et les compare aux résultats obtenus sur des corpus écrits et des entretiens de conversation courante. De plus, on s’interroge sur les fonctions de par ailleurs dans ces nouvelles données puisque cette locution est décrite de manière très similaire dans les documents lexicographiques. Nous apportons de nouvelles propositions relatives aux fonctions discursives de ces deux locutions adverbiales, notamment la présence plus fréquente de par ailleurs dans le discours écrit et une fonction de rupture thématique et argumentative plus nette que celles proposées pour d’ailleurs. Notre corpus consiste en des données parlées (43 000 mots d'entrevues politiques et 25 000 mots d’entretien courant) et des données écrites journalistiques (plus d’un million de mots). Notre méthodologie inclut la linguistique de corpus et notre analyse s’inscrit dans le cadre de la linguistique fonctionnelle (Halliday et Matthiessen 2004, inter alia).
10

Robin, Monique. "Perception de l’espace résidentiel des mères de jeunes enfants : analyse textuelle du discours." Articles 16, no. 1 (January 6, 2004): 97–119. http://dx.doi.org/10.7202/007344ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé L’objet de cette analyse exploratoire est de dégager, au moyen d’une méthode d’analyse statistique informatisée de données textuelles, les thèmes sous-jacents au discours des femmes sur leur espace résidentiel. Des entrevues ont été recueillies auprès de femmes françaises ayant un premier ou une première enfant de 2 ans et vivant dans un milieu urbain ou suburbain. Pour les mères des deux milieux, le rapport au logement est apparu par référence aux nouvelles attentes déterminées par les changements de la vie familiale et par référence au passé résidentiel récent. Seule la question des contraintes spatiotemporelles liées aux déplacements quotidiens en milieu urbain accompagnées de jeunes enfants a différencié les femmes habitant Paris et celles qui demeurent en banlieue.

Dissertations / Theses on the topic "Analyse de données textuellees":

1

Chartron, Ghislaine. "Analyse des corpus de données textuelles, sondage de flux d'informations." Paris 7, 1988. http://www.theses.fr/1988PA077211.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Realisation d'un outil d'extraction des concepts significatifs d'un corpus quelconque de documents "homogenes", l'originalite defaut de respecter les exigences d'un univers ouvert: l'outil a ete appele lexinet. Les traitements ont ete developpes dans la perspective de traiter des sources d'informations diverses en un temps limite, sans s'appuyer sur des lexiques preetablis. Les techniques employees associent des methodes linguistiques elementaires, des methodes statistiques et l'intervention d'un expert humain, specialiste du domaine traite
2

Ramadasse, Harry. "L'observation du travail digital des cols blancs : le développement d'un Observatoire au sein du Groupe Michelin." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASI002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse explore la pratique du travail digital des salariés cols blancs au sein du Groupe Michelin. Durant la première année d'immersion terrain, nous avons réalisé un diagnostic de l'intelligence digitale qui nous a permis d'aboutir à la question industrielle suivante : « Comment mesurer la dextérité digitale des salariés cols blancs du groupe Michelin ? ». En procédant à la traduction de cette dernière en concepts théoriques, nous avons identifié la question de recherche suivante :« Comment observer la pratique du travail digital des salariés cols blancs d'une organisation pré-digitale industrielle ? ».En nous basant sur la littérature sur la transformation digitale, le travail digital et les observatoires, cette thèse défend le développement d'un observatoire basé sur un échantillon Big Quali, de plus de 200 000 réponses textuelles, collecté en interne.Les contributions de ces travaux sont les suivantes : la proposition d'un cadre théorique du travail digital, une méthodologie de développement d'un observatoire pouvant devenir un instrument de gestion organisationnel, une proposition d'approche méthodologique BigQuali/IA à destination des chercheurs et des practiciens souhaitant analyser de larges bases de données textuelles
This thesis investigates the digital work practices of white-collar workers within the Michelin Group. During the first year of field immersion, a diagnostic of digital intelligence was conducted, leading to the following industrial question: "How to measure digital dexterity of Michelin Group's white-collar workers?". By translating this question into theoretical concepts, the following research question was identified:"How can the digital work practices of white-collar employees in a pre-digital industrial organization be observed?".Drawing on literature related to digital transformation, digital work, and observatories, this thesis advocates for the development of an observatory based on a Big Quali sample of over 200,000 textual responses collected internally.The contributions of this work include: the proposal of a theoretical framework for digital work, a methodology for developing an observatory that can become an organizational management tool, and a proposed BigQuali/AI methodological approach for researchers and practitioners aiming to analyze large textual databases
3

Dubois, Vincent. "Apprentissage approximatif et extraction de connaissances à partir de données textuelles." Nantes, 2003. http://www.theses.fr/2003NANT2001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de cette thèse est l'extraction de connaissances à partir de données textuelles (KDT) en se basant sur la théorie des ensembles approximatifs (RST) et l'apprentissage symbolique et numérique. Les contributions sont : (1) l'extension des espaces de versions (espaces de versions approximatifs (RVS)), (2) l'application des RVS au KDT, (3) la découverte et visualisation de graphes à partir de textes. Tout d'abord, nous définissons les espaces de versions approximatifs (RVS), en construisant des opérateurs d'approximation, ce qui aboutit à un cadre général pour l'apprentissage symbolique automatique. L'introduction de la notion de consistance approximative conduit à l'utilisation de concepts presque consistants avec les données. En pratique, cela a pour effet d'étendre l'interprétation des concepts lors de l'apprentissage, et de traiter les données inconsistantes à l'aide de regroupement des exemples. . .
4

Rigouste, Loïs. "Méthodes probabilistes pour l'analyse exploratoire de données textuelles." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002424.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous abordons le problème de la classification non supervisée de documents par des méthodes probabilistes. Notre étude se concentre sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents. La construction de groupes de documents thématiquement homogènes est une des technologies de base de la fouille de texte, et trouve de multiples applications, aussi bien en recherche documentaire qu'en catégorisation de documents, ou encore pour le suivi de thèmes et la construction de résumés. Diverses propositions récentes ont été faites de modèles probabilistes permettant de déterminer de tels regroupements. Les modèles de classification probabilistes peuvent également être vus comme des outils de construction de représentations numériques synthétiques d'informations contenues dans le document. Ces modèles, qui offrent des facilités pour la généralisation et l'interprétation des résultats, posent toutefois des problèmes d'estimation difficiles, dûs en particulier à la très grande dimensionnalité du vocabulaire. Notre contribution à cette famille de travaux est double: nous présentons d'une part plusieurs algorithmes d'inférence, certains originaux, pour l'estimation du modèle de mélange de multinomiales; nous présentons également une étude systématique des performances de ces algorithmes, fournissant ainsi de nouveaux outils méthodologiques pour mesurer les performances des outils de classification non supervisée. Les bons résultats obtenus par rapport à d'autres algorithmes classiques illustrent, à notre avis, la pertinence de ce modèle de mélange simple pour les corpus regroupant essentiellement des documents monothématiques.
5

Lespinats, Sylvain. "Style du génome exploré par analyse textuelle de l'ADN." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00151611.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les séquences d'ADN peuvent être considérées comme des textes écrits dans un alphabet de 4 lettres. Des techniques inspirées de l'analyse textuelle permettent donc de les caractériser, entre autres à partir de fréquences d'apparition de courtes suites de caractères (les oligonucléotides ou mots). L'ensemble des fréquences des mots d'une longueur donnée est appelé « signature génomique » (cet ensemble est spécifique de l'espèce, ce qui justifie le terme de « signature »). La signature d'espèce est observable sur la plupart des courts fragments d'ADN, ce qui donne à penser qu'elle résulte d'un « style d'écriture ». De plus, la proximité entre espèces du point de vue de la signature génomique correspond bien souvent à une proximité en terme taxonomique. Pourtant, l'analyse des signatures génomiques se confronte rapidement à des limitations dues à la malédiction de la dimension. En effet, les données de grande dimension (la signature génomique a généralement 256 dimensions) montrent des propriétés qui mettent en défaut l'intuition. Par exemple, le phénomène de concentration des distances euclidiennes est bien connu.
Partant de ces constatations, nous avons mis en place des procédures d'évaluation des distances entre signatures de façon à rendre plus manifeste les informations biologiques sur lesquelles s'appuient nos analyses. Une méthode de projection non-linéaire des voisinages y est associée ce qui permet de s'affranchir des problèmes de grande dimension et de visualiser l'espace occupé par les données. L'analyse des relations entre les signatures pose le problème de la contribution de chaque variable (les mots) à la distance entre les signatures. Un Z-score original basé sur la variation de la fréquence des mots le long des génomes a permis de quantifier ces contributions. L'étude des variations de l'ensemble des fréquences le long d'un génomes permet d'extraire des segments originaux. Une méthode basée sur l'analyse du signal permet d'ailleurs de segmenter précisément ces zones originales.
Grâce à cet ensemble de méthodes, nous proposons des résultats biologiques. En particulier, nous mettons en évidence une organisation de l'espace des signatures génomiques cohérente avec la taxonomie des espèces. De plus, nous constatons la présence d'une syntaxe de l'ADN : il existe des « mots à caractère syntaxique » et des « mots à caractère sémantique », la signature s'appuyant surtout sur les mots à caractère syntaxique. Enfin, l'analyse des signatures le long du génome permet une détection et une segmentation précise des ARN et de probables transferts horizontaux. Une convergence du style des transferts horizontaux vers la signature de l'hôte a d'ailleurs pu être observée.
Des résultats variés ont été obtenus par analyse des signatures. Ainsi, la simplicité d'utilisation et la rapidité de l'analyse des séquences par signatures en font un outil puissant pour extraire de l'information biologique à partir des génomes.
6

Marteau, Hubert. "Une méthode d'analyse de données textuelles pour les sciences sociales basée sur l'évolution des textes." Tours, 2005. http://www.theses.fr/2005TOUR4028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but est d'apporter aux sociologues un outil informatique permettant l'analyse d'entretiens ouverts semi-directifs. Le traitement est en deux étapes : une indexation des entretiens suivi d'une classification. Les méthodes d'indexation habituelles reposent sur une analyse statistiques plus adaptées à des textes de contenu et de structure (textes littéraires, scientifiques,. . . ) marqués qu'à des entretiens limités à l'usage de peu de mots (1000 mots pour des textes de discussion). Partant de l'hypothèse que l'appartenance sociologique induit fortement la forme du discours, nous évaluons la structure et l'évolution des textes en proposant de nouvelles représentations des textes (image, signal) qui conduisent à l'extraction de valeurs indexant le texte, mesures statiques ou liées à l'évolution du texte. La classification choisie est arborée (NJ). Elle repose sur ces caractéristiques par sa faible complexité et son respects des distances, elle fournit une aide à la classification
This PhD Thesis aims at bringing to sociologists a data-processing tool wich allows them to analyse of semi-directing open talks. The proposed tool performs in two steps : an indexation of the talks followed by a classification. Usually, indexing methods rely on a general stastistical analysis. Such methods are suited for texts having contents and structure ( literary texts, scientific texts,. . . ). These texts have more vocabulary and structure than talks (limitation to 1000 words for suche texts). On the basis of the assumption that the sociological membership strongly induces the form of the speech, we propose various methods to evaluate the structure and the evolution of the texts. The methods attempt to find new representations of texts (image, signal) and to extract values from these new representations. Selected classification is a classification by trees (NJ). It has a low complexity and it respects distances, then this method is a good solution to provide a help to classification
7

Dermouche, Mohamed. "Modélisation conjointe des thématiques et des opinions : application à l'analyse des données textuelles issues du Web." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22007/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se situe à la confluence des domaines de "la modélisation de thématiques" (topic modeling) et l'"analyse d'opinions" (opinion mining). Le problème que nous traitons est la modélisation conjointe et dynamique des thématiques (sujets) et des opinions (prises de position) sur le Web et les médias sociaux. En effet, dans la littérature, ce problème est souvent décomposé en sous-tâches qui sont menées séparément. Ceci ne permet pas de prendre en compte les associations et les interactions entre les opinions et les thématiques sur lesquelles portent ces opinions (cibles). Dans cette thèse, nous nous intéressons à la modélisation conjointe et dynamique qui permet d'intégrer trois dimensions du texte (thématiques, opinions et temps). Afin d'y parvenir, nous adoptons une approche statistique, plus précisément, une approche basée sur les modèles de thématiques probabilistes (topic models). Nos principales contributions peuvent être résumées en deux points : 1. Le modèle TS (Topic-Sentiment model) : un nouveau modèle probabiliste qui permet une modélisation conjointe des thématiques et des opinions. Ce modèle permet de caractériser les distributions d'opinion relativement aux thématiques. L'objectif est d'estimer, à partir d'une collection de documents, dans quelles proportions d'opinion les thématiques sont traitées. 2. Le modèle TTS (Time-aware Topic-Sentiment model) : un nouveau modèle probabiliste pour caractériser l'évolution temporelle des thématiques et des opinions. En s'appuyant sur l'information temporelle (date de création de documents), le modèle TTS permet de caractériser l'évolution des thématiques et des opinions quantitativement, c'est-à-dire en terme de la variation du volume de données à travers le temps. Par ailleurs, nous apportons deux autres contributions : une nouvelle mesure pour évaluer et comparer les méthodes d'extraction de thématiques, ainsi qu'une nouvelle méthode hybride pour le classement d'opinions basée sur une combinaison de l'apprentissage automatique supervisé et la connaissance a priori. Toutes les méthodes proposées sont testées sur des données réelles en utilisant des évaluations adaptées
This work is located at the junction of two domains : topic modeling and sentiment analysis. The problem that we propose to tackle is the joint and dynamic modeling of topics (subjects) and sentiments (opinions) on the Web. In the literature, the task is usually divided into sub-tasks that are treated separately. The models that operate this way fail to capture the topic-sentiment interaction and association. In this work, we propose a joint modeling of topics and sentiments, by taking into account associations between them. We are also interested in the dynamics of topic-sentiment associations. To this end, we adopt a statistical approach based on the probabilistic topic models. Our main contributions can be summarized in two points : 1. TS (Topic-Sentiment model) : a new probabilistic topic model for the joint extraction of topics and sentiments. This model allows to characterize the extracted topics with distributions over the sentiment polarities. The goal is to discover the sentiment proportions specfic to each of theextracted topics. 2. TTS (Time-aware Topic-Sentiment model) : a new probabilistic model to caracterize the topic-sentiment dynamics. Relying on the document's time information, TTS allows to characterize the quantitative evolutionfor each of the extracted topic-sentiment pairs. We also present two other contributions : a new evaluation framework for measuring the performance of topic-extraction methods, and a new hybrid method for sentiment detection and classification from text. This method is based on combining supervised machine learning and prior knowledge. All of the proposed methods are tested on real-world data based on adapted evaluation frameworks
8

Trouvilliez, Benoît. "Similarités de données textuelles pour l'apprentissage de textes courts d'opinions et la recherche de produits." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0403/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'établissement de similarités de données textuelles dans le domaine de la gestion de la relation client. Elle se décline en deux parties : - l'analyse automatique de messages courts en réponse à des questionnaires de satisfaction ; - la recherche de produits à partir de l'énonciation de critères au sein d'une conversation écrite mettant en jeu un humain et un programme agent. La première partie a pour objectif la production d'informations statistiques structurées extraites des réponses aux questions. Les idées exprimées dans les réponses sont identifiées, organisées selon une taxonomie et quantifiées. La seconde partie vise à transcrire les critères de recherche de produits en requêtes compréhensibles par un système de gestion de bases de données. Les critères étudiés vont de critères relativement simples comme la matière du produit jusqu'à des critères plus complexes comme le prix ou la couleur. Les deux parties se rejoignent sur la problématique d'établissement de similarités entre données textuelles par des techniques de TAL. Les principales difficultés à surmonter sont liées aux caractéristiques des textes, rédigés en langage naturel, courts, et comportant fréquemment des fautes d'orthographe ou des négations. L'établissement de similarités sémantiques entre mots (synonymie, antonymie, etc) et l'établissement de relations syntaxiques entre syntagmes (conjonction, opposition, etc) sont également des problématiques abordées. Nous étudions également dans cette thèse des méthodes de regroupements et de classification automatique de textes afin d'analyser les réponses aux questionnaires de satisfaction
This Ph.D. thesis is about the establishment of textual data similarities in the client relation domain. Two subjects are mainly considered : - the automatic analysis of short messages in response of satisfaction surveys ; - the search of products given same criteria expressed in natural language by a human through a conversation with a program. The first subject concerns the statistical informations from the surveys answers. The ideas recognized in the answers are identified, organized according to a taxonomy and quantified. The second subject concerns the transcription of some criteria over products into queries to be interpreted by a database management system. The number of criteria under consideration is wide, from simplest criteria like material or brand, until most complex criteria like color or price. The two subjects meet on the problem of establishing textual data similarities thanks to NLP techniques. The main difficulties come from the fact that the texts to be processed, written in natural language, are short ones and with lots of spell checking errors and negations. Establishment of semantic similarities between words (synonymy, antonymy, ...) and syntactic relations between syntagms (conjunction, opposition, ...) are other issues considered in our work. We also study in this Ph. D. thesis automatic clustering and classification methods in order to analyse answers to satisfaction surveys
9

Andreewsky, Marina. "Construction automatique d'un système de type expert pour l'interrogation de bases de données textuelles." Paris 11, 1989. http://www.theses.fr/1989PA112310.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre thèse décrit la construction d’un système d’aide à l’interrogation de bases de données textuelles en naturel, le système FASE. Pour une base donnée, FASE génère automatiquement des suites de mots sémantiquement importants de son vocabulaire. Celles-ci sont organisées en arborescence: la racine correspond aux termes généraux de la base et les feuilles aux termes spécifiques d’un petit nombre de documents. Les arborescences sont créées à l'aide de deux modules : le premier, à caractère linguistique, attribue un fichier inverse des mots sémantiques à chaque base traitée. Il comprend une analyse morpho-syntaxique et le traitement de certaines formes de négation et de synonymie. Le second créé, à partir du fichier inverse, des chaînes de mots importants de la base qui recouvrent tous les documents concernés à une étape donnée. Cette procédure permet également d’effectuer une classification automatique de la base textuelle traitée. L'interrogation d'une base consiste en un parcours sélectif de l’arborescence, de la racine à une feuille, c'est-à-dire du niveau le plus général au niveau le plus spécifique. A chaque étape, le système présente à l'utilisateur une suite de mots caractéristiques d'un ensemble de plus en plus restreint de documents. Celui-ci sélectionne les mots les plus proches du sujet qui l'intéresse et le système calcule dynamiquement la nouvelle suite de mots à proposer. Aucune requête n'est à formuler: le système guide la recherche et permet de converger vers les documents correspondants aux validations successives.
10

Priam, Rodolphe. "Méthodes de carte auto-organisatrice par mélange de lois contraintes. Ap^plication à l'exploration dans les tableaux de contingence textuels." Rennes 1, 2003. http://www.theses.fr/2003REN10166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à l'analyse exploratoire des données multidimensionnelles souvent qualitatives voir textuelles par des modèles particuliers de carte auto-organisatrice de Kohonen. Il s'agit d'effectuer une classification et une projection simultanées des lignes ou colonnes d'une matrice de données. Le résultat de ces méthodes est une réduction sous la forme d'une surface de régression discréte. Nous étudions plus particulièrement les modèles de mélange de lois de probabilités : les paramètres correspondant aux espérances des vecteurs classés sont contraints en les plaçant aux noeuds d'une grille rectangulaire. Après une présentation de ces méthodes, et des algorithmes d'estimation basés sur l'EM (Expectation-Maximization), nous introduisons essentiellement deux nouvelles approches. La première vise à ''généraliser la méthode d'Analyse Factorielle des Correspondances'' aux grandes matrices : l'algorithme CASOM est une classifieur Nai͏̈f de Bayes contraint en un TPEM (Topology Preserving EM) pour tableau de contingence. La seconde consiste en un schéma général d'adaptation des méthodes de segmentation d'image en carte auto-organisatrice. Pour l'illustrer, nous modifions un algorithme de segmentation par champs moyens, et obtenons un algorithme appellé TNEM. Nous utilisons ces méthodes pour aider à la navigation dans un corpus textuel. En effet, nous aboutissons à des critères et des moyens de représentation objectifs.

Books on the topic "Analyse de données textuellees":

1

François, Rastier, Martin Eveline, and Béhar Henri, eds. L' Analyse thématique des données textuelles: L'example des sentiments. Paris: Didier érudition, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Miles, Matthew B. Analyse des données qualitatives. 2nd ed. Paris: De Boeck Université, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Herman, Jacques. Analyse de données qualitatives. Paris: Masson, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Bouroche, Jean-Marie. L'Analyse des données. 6th ed. Paris: Presses universitaires de France, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Crauser, Jean-Pierre. Guide pratique d'analyse des données. Paris: Éditions d'organization, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Cibois, Philippe. L' analyse des données en sociologie. 2nd ed. Paris: Presses universitaires de France, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Saporta, Gilbert. Probabilités, analyse des données et statistique. 2nd ed. Paris: Editions Technip, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Pontier, Jacques. Le modèle euclidien en analyse des données. Bruxelles: Editions de l'Université de Bruxelles, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Burkina Faso. Ministère du travail et de la sécurité sociale. Travail et sécurité sociale: Analyse des données. Ouagadougou, Burkina Faso]: Ministère du Travail et de la Sécurité Sociale, Secrétariat Général, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Jambu, Michel. Introduction au data mining: Analyse intelligente des données. Paris: Eyrolles, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Analyse de données textuellees":

1

Guyomard, Marc. "Analyse d’algorithmes." In Structures de données et méthodes formelles, 107–28. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0200-8_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bauden, Frédéric. "Du destin des archives en Islam. Analyse des données et éléments de réponse." In Miroir de l'Orient Musulman, 27–49. Turnhout: Brepols Publishers, 2013. http://dx.doi.org/10.1484/m.mom-eb.5.100964.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ignatiadis, M., and C. Sotiriou. "Outils génomiques pouvant aider au choix thérapeutique des cancers du sein Analyse des données actuelles." In Cancer du sein, 309–14. Paris: Springer Paris, 2012. http://dx.doi.org/10.1007/978-2-8178-0245-9_25.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

"L’analyse statistique des données textuelles:." In Analyse des données textuelles, 7–38. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

"Front Matter." In Analyse des données textuelles, i—vi. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

"Exploration, visualisation, validation et inférence." In Analyse des données textuelles, 141–68. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

"L’analyse en composantes principales (ACP)." In Analyse des données textuelles, 169–210. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

"L’analyse des correspondances (AC)." In Analyse des données textuelles, 211–54. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

"La classification des mots et des textes." In Analyse des données textuelles, 255–300. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.13.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"Les stratégies d’analyse et la complémentarité entre analyse en axes principaux et classification." In Analyse des données textuelles, 301–60. Presses de l'Université du Québec, 2019. http://dx.doi.org/10.2307/j.ctvq4bxws.14.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Analyse de données textuellees":

1

Lechêne, Sullivan, Bertrand Blanquart, and Jean-Raymond Fontaine. "Analyse de données d’étalonnage sur un parc d’anémomètres." In 18th International Congress of Metrology, edited by Cosimi Corletto. Les Ulis, France: EDP Sciences, 2017. http://dx.doi.org/10.1051/metrology/201710007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

JOUSSET, Solène, Franck DUMAS, and Tanguy SZEKELY. "Analyse dynamique d'un front côtier de marée dans la perspective d'une expérience d'assimilation de données." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2014. http://dx.doi.org/10.5150/jngcgc.2014.043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

THIEBAUD, Léa, Anne-Laure TIBERI-WADIER, and Yvonnick BEAUDOUIN. "Analyse de données de vent en Europe pour caractériser le potentiel de l’éolien en mer." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2018. http://dx.doi.org/10.5150/jngcgc.2018.067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Buzun, Andriy-Igor. "L’MICROBIOME DE COBAYE AFFECTE-T-IL AU L’NEUROVIRULENCE DU TESHOVIRUS ENVERS L’PORC? ANALYSE RÉTROSPECTIVE DES DONNÉES." In DÉBATS SCIENTIFIQUES ET ORIENTATIONS PROSPECTIVES DU DÉVELOPPEMENT SCIENTIFIQUE. La Fedeltà & Plateforme scientifique européenne, 2021. http://dx.doi.org/10.36074/logos-01.10.2021.v1.24.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Vaysse, Robin, Alain Ghio, Corine Astésano, Jérôme Farinas, and François Viallet. "Analyse macroscopique des variations et modulations de F0 en lecture dans la maladie de Parkinson : données sur 320 locuteurs." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-33.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Crouzet, Olivier, Agnieszka Duniec, and Elisabeth Delais-Roussarie. "Analyse Factorielle de signaux musicaux : comparaison avec les données de parole dans la perspective de l'hypothèse de codage efficace." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-75.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

FAHIM, Othmane. "Impact de l’Investissement et de l’Entrepreneuriat sur la Croissance Economique dans les pays de la région MENA : Analyse en données de panel dynamique." In Quelles politiques économiques en faveur de l’investissement et de l’emploi en période de crises et de reconstitution de l’économie mondiale ? Francisco Baptista Gil, 2023. http://dx.doi.org/10.23882/eb.23.0535-08.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

CARNUS, François, Ann Sophie GABELLINI, and Olivier MERCIER. "Analyse des données AIS des secteurs PACA Est et Sanctuaire PELAGOS pour l’évaluation des problématiques liées au trafic maritime pour la gestion du milieu marin." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2016. http://dx.doi.org/10.5150/jngcgc.2016.039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros, and D. Tardivo. "Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
10

Ordioni, U., G. Labrosse, F. Campana, R. Lan, J. H. Catherine, and A. F. Albertini. "Granulomatose oro-faciale révélatrice d’une maladie de Crohn : présentation d’un cas." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La granulomatoses oro-faciale (GOF) est une entité rare regroupant toutes les pathologies caractérisées par une inflammation granulomateuse non caséeuse de la région oro-faciale. Le diagnostic est histologique. L’étiologie n’est pas connue. L’oedème labial d’abord intermittent, pouvant s’installer de manière permanente, est un symptôme classique de la GOF. D’autres signes cliniques, extra-oraux, peuvent être associées lorsque la GOF s’inscrit dans le cadre d’une pathologie systémique : maladie de Crohn, Sarcoïdose, maladie de Wegener. Nous présentons le cas d’un patient pour qui l’exploration de sa GOF a conduit au diagnostic de maladie de Crohn (MC). Un patient de 29 ans consultait pour une tuméfaction labiale évoluant depuis an après échec de traitement locaux (dermocorticoïdes). On notait des diarrhées chroniques étiquetées maladie coeliaque et un épisode d’hyperplasie gingivale à l’âge de 14 ans (gingivectomie réalisée par un parodontiste mais sans analyse anatomopathologique). L’examen clinique montrait un oedème labial supérieur et inférieur associé à un érythème, une hyperplasie gingivale, une ulcération vestibulaire et une langue géographique associée à une langue plicaturée. On ne notait pas de paralysie faciale. Des biopsies étaient réalisées. La biopsie labiale montrait une muqueuse normokératosique, avec des remaniements spongiotiques, sans micro-abcès. Le chorion sous-jacent était oedémateux avec des vaisseaux dilatés. On observait plus en profondeur un vaisseau altéré avec un granulome lympho-épithéioïde sans cellule géante et sans nécrose. La biopsie gingivale montrait une muqueuse oedémateuse sans granulome. L’examen biologique (NFS, VS, CRP, bilan martial, dosage enzyme conversion angiotensine, sérologie VIH, VHC, VHB) et la radiologie thoracique était sans particularité. Compte tenu de la présente d’une pathologie intestinale et à la vue de ces nouvelles données, un avis gastro-entérologique était demandé. L’examen proctologique montrait des marisques anales. L’entero-IRM confirmait le diagnostic de MC. La macrochéilie a été traité par injection de triamcinolone retard 40ml. Un traitement par anti- TNF était instauré. La MC est une maladie inflammatoire chronique de l’intestin pouvant atteindre le tube digestif de la bouche à l’anus. Les manifestations oro-faciales (macrochéilie, ulcérations buccales, hyperplasie gingivale, pseudo-polypes, erythèmes muqueux, fissures gingivales ou pyostomatite végétante) de la maladie de Crohn peuvent précéder l’atteinte intestinale. Des atteintes extra-intestinales peuvent exister : érythème noueux, uvéite, arthralgie, arthrite entéropathique. Le diagnostic de GOF doit faire rechercher des signes extra-oraux afin de déterminer si elle est isolée ou associée à une MC, à une sarcoidose ou un Wegener. En cas de GOF isolé, la question du suivi de dépistage d’une MC reste non élucidée.

Reports on the topic "Analyse de données textuellees":

1

Kaboré, Gisele, and Idrissa Kabore. Analyse secondaire des données de l'analyse situationnelle des services de santé de la reproduction. Population Council, 2009. http://dx.doi.org/10.31899/pgy20.1000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En début 2002, l’UNFPA a soutenu un projet intitulé Renforcement des services sanitaires et sociaux pour faire face aux besoins de santé sexuelle et reproductive des adolescentes. Le projet avait pour objectif d’améliorer la connaissance des adolescentes mariées en ce qui concerne la législation et leurs propres droits; les éduquer à prendre soin de leur propre santé et de celle de leurs enfants; et augmenter leur accessibilité aux services de santé reproductive, particulièrement dans les régions les plus pauvres du Burkina Faso. Le projet a affirmé que les normes de fonctionnement ne sont pas remplies en termes d’infrastructures, d’équipement, de matériel et de ressources humaines. Les services disponibles ne sont pas bien connus par les populations, ce qui peut limiter la fréquentation. Il apparaît aussi que les services offerts aux adolescents ne sont pas assez développés car peu de prestataires ont des compétences nécessaires. Quelques recommandations ont été formulées en réponses aux problèmes et aux insuffisances constatées, sur la capacité d’offre et la qualité des services.
2

Nédellec, Claire, Adeline Nazarenko, Francis André, Catherine Balivo, Béatrice Daille, Anastasia Drouot, Jorge Flores, et al. Recommandations sur l’analyse automatique de documents : acquisition, gestion, exploration. Ministère de l'enseignement supérieur et de la recherche, September 2019. http://dx.doi.org/10.52949/10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le groupe de travail "Fouille de textes et analyse de données" du Comité pour la science ouverte émet des recommandations sur les bonnes pratiques pour l'analyse de données. Elles portent sur l'acquisition et le partage des documents, l'utilisation de logiciels de gestion, d’exploration ou d’analyse, l'exploitation des résultats et la diffusion d’extraits de documents.
3

Meunier, Valérie, and Eric Marsden. Analyse coût-bénéfices: guide méthodologique. Fondation pour une culture de sécurité industrielle, December 2009. http://dx.doi.org/10.57071/492acb.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gestion des risques industriels soulève de nombreuses questions auxquelles on ne peut pas répondre par un simple «oui» ou «non»: (1) quels critères la société devrait-elle utiliser pour décider que les risques d'une installation industrielle ont été réduits aussi bas que raisonnablement praticable? (2) comment arbitrer entre des considérations qui relèvent de «dimensions» différentes: morts et blessés potentiels en cas d'accident industriel, impacts potentiels sur l'environnement, enjeux financiers, développement de l'emploi, déménagements forcés en cas d'expropriation d'habitations, etc. et ayant des impacts sur de multiples parties prenantes (riverains des installations industrielles, exploitants et employés des sites, élus locaux et régionaux, etc.)? L'analyse coût-bénéfices (ACB) est un outil d'aide à la décision qui peut faciliter la discussion entre parties prenantes. Elle fournit un cadre structuré permettant de présenter l'ensemble des éléments de la décision et discuter de leur pondération respective, favorisant ainsi la transparence du processus décisionnel. Cet outil est largement utilisé dans les pays anglo-saxons en matière de réglementation environnementale et de décisions concernant la sécurité industrielle. Le présent document vise à aider des analystes qui souhaiteraient conduire une ACB d'un projet d'investissement en matière de sécurité ou une analyse d'impact d'une réglementation liée à la prévention. Il vise également à éclairer les lecteurs de telles études et les aider à évaluer la qualité de l'analyse. Le document présente les concepts économiques qui sous-tendent l'ACB, et décrit les principales étapes pratiques d'une étude. Il fournit des indications sur les sources de données permettant de monétiser différentes conséquences hors-marché de l'activité industrielle (impact sur la santé et la sécurité des personnes, pollutions environnementales et nuisances sonores). Le document propose également une check-list des questions qu'il peut être utile de se poser lors de la lecture critique d'une étude ACB.
4

de Lamotte, Frédéric, Véronique Stoll, Cécile Arenes, Marie-Emilia Herbert, Stéphane Debard, Françoise Genova, Christine Hadrossek, et al. Sélectionner un entrepôt thématique de confiance pour le dépôt de données : méthodologie et analyse de l'offre existante. Ministère de l’enseignement supérieur et de la recherche, March 2024. http://dx.doi.org/10.52949/52.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ammi, Mehdi, Raphael Langevin, Emmanuelle Arpin, and Erin C. Strumpf. Effets de la pandémie de COVID-19 sur la réallocation des dépenses de santé publique par fonction : estimation de court terme et analyse prédictive contrefactuelle. CIRANO, June 2024. http://dx.doi.org/10.54932/lslr2977.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les crises épidémiologiques comme celle de la pandémie de COVID-19 affectent les systèmes de santé dans de multiples dimensions. Au Québec comme ailleurs, ce genre d'événement majeur peut avoir influencé non seulement les dépenses totales en santé publique, mais aussi leur répartition entre les différentes fonctions de santé publique. Il est donc primordial de mieux comprendre les décisions et arbitrages dans l’allocation des dépenses entre les grandes fonctions de santé publique et aussi mieux comprendre les conséquences des choix qui sont faits. Ce rapport permet précisément d’améliorer notre compréhension de ces questions. Les analyses s’appuient sur des approches économétriques complexes et sur plusieurs sources de données de santé populationnelle, démographiques et socioéconomiques, et sur des données épidémiologiques de la COVID-19 par région et provenant du jeu de données ouvertes disponibles du Partenariat Données Québec et de l’INSPQ. Les auteurs montrent que la pandémie a conduit à une réallocation des sommes en privilégiant certains postes de dépenses aux dépens d'autres. Les dépenses en surveillance de la santé des populations, en promotion de la santé, en prévention des maladies et celles pour la lutte aux Infections transmissibles sexuellement et par le sang (ITSS) ont toutes baissé comparativement aux prévisions de ce qu’auraient été les dépenses dans ces catégories en l’absence de pandémie. Les auteurs suggèrent que la réduction des dépenses en promotion des saines habitudes de vie et en bonne santé mentale, lesquelles font partie des actions de promotion de la santé et de la prévention des maladies, pourrait avoir entrainé des effets délétères sur la santé des populations.
6

Stasiuk, L. D., and W. W. Nassichuk. Données thermiques à partir d'une analyse pétrographique des matières organiques dans les cheminées de kimberlite au la de Gras (T.N.-O.). Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1996. http://dx.doi.org/10.4095/211727.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, April 2012. http://dx.doi.org/10.57071/170rex.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
8

Doyon, Maurice, Stéphane Bergeron, and Jacinthe Cloutier. Analyse des préférences des résidents-propriétaires de la ville de Québec pour l’aménagement de bassins de rétention à proximité. CIRANO, June 2022. http://dx.doi.org/10.54932/qwaq7409.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce projet de recherche s’inscrit dans le cadre d’un projet pluridisciplinaire ayant comme objectif général de fournir aux gestionnaires municipaux des données permettant de démontrer les différents services écosystémiques apportés par les bassins de rétention d’eau pluviale dans un contexte de conservation des écosystèmes urbains, avec un accent particulier sur la protection de la ressource en eau potable. Ce rapport se concentre sur les aspects sociaux et économiques et a comme objectif principal d’informer les administrations municipales sur les préférences des citoyens en matière de bassins de rétention, en utilisant comme cas type la Ville de Québec. Plus spécifiquement, les objectifs sont : 1) Identifier les préférences des citoyens de la ville de Québec envers différents types d’aménagement des bassins de rétention; 2) Estimer le consentement à payer (CAP) pour l’aménagement des bassins de rétention. Le CAP n’est pas seulement une mesure économique, mais également une quantification du bénéfice perçu par les citoyens; 3) Selon la perception des citoyens, qualifier les caractéristiques désirables et indésirables des aménagements de bassin de rétention; 4) Créer une typologie des citoyens en fonction et de leurs préférences pour mieux envisager la diversité des préférences.
9

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, October 2023. http://dx.doi.org/10.54932/ryht5065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
10

Connolly, Marie, Catherine Haeck, and Lucie Raymond-Brousseau. La mobilité sociale au Québec selon différents parcours universitaires. CIRANO, February 2022. http://dx.doi.org/10.54932/nrzm8999.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif principal de ce rapport est de présenter une analyse descriptive de la mobilité sociale des diplômés du baccalauréat des différentes universités du Québec selon le domaine d’études, mobilité étant ici captée par la transmission intergénérationnelle du revenu. À partir de données administratives sur l’ensemble des étudiants du Québec, il est possible d’observer les taux de diplomation ainsi que les revenus des diplômés une fois sur le marché du travail, le tout par quintile de revenu parental. Au niveau de la fréquentation universitaire de premier cycle au Québec, nous observons une surreprésentation des étudiants provenant de milieux plus aisés. Nos résultats suggèrent également que le taux de diplomation des étudiants au baccalauréat est plus faible pour les étudiants provenant de familles à faible revenu et augmente avec le quintile de revenu parental. Notre analyse de la mobilité intergénérationnelle, à l’aide d’une matrice de transition, suggère que les jeunes diplômés universitaires ont une assez bonne mobilité relativement à la population comprenant tous les niveaux de scolarité, et que les étudiants provenant de milieux moins favorisés ont une mobilité nettement supérieure à leur population de référence. Nous calculons aussi, par université et domaine d’études, une mesure de mobilité intergénérationnelle qui tient compte de l’accès aux études universitaires et de la mobilité ascendante (passer du quintile inférieur de revenu au quintile supérieur). On constate que la mobilité ascendante varie d’une université à l’autre, mais également par domaine d’études, les institutions spécialisées en ingénierie et les programmes en science, technologie, ingénierie et mathématiques démontrant les mobilités ascendantes les plus élevées. Une limite importante de nos données est que l’horizon de temps suivant l’obtention du diplôme est limité, de telle sorte que les revenus d’emploi observés ne sont pas nécessairement représentatifs du revenu permanent des diplômés.

To the bibliography