Journal articles on the topic 'Données massives – Analyse informatique'

To see the other types of publications on this topic, follow the link: Données massives – Analyse informatique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 25 journal articles for your research on the topic 'Données massives – Analyse informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

ASSIS, Y., A. NAFI, X. NI, A. SAMET, and G. GUARINO. "Analyse textuelle des RPQS pour la constitution de bases de connaissances." 3, no. 3 (March 22, 2021): 31–36. http://dx.doi.org/10.36904/tsm/202103031.

Full text
Abstract:
Le rapport annuel sur le prix et la qualité du service de l’eau (RPQS) constitue une source potentielle pour accéder à des informations indisponibles dans le système d’information des services publics d’eau et d’assainissement (Sispea). Cependant, le format textuel des rapports rend difficile leur exploitation sur plusieurs années ou à grande échelle dans une optique d’analyse de données massives. Notre travail s’intéresse à l’utilisation d’approches de traitement automatique du langage pour puiser de l’information dans ces rapports afin de constituer une base de connaissances à l’échelle soit d’un service, soit de plusieurs services. Cette base peut servir pour valider/compléter en partie les données contenues dans la base Sispea sujette à des erreurs ou à des oublis, mais elle peut également constituer une source qui alimente des modèles prédictifs à des fins d’aide à la décision. Dans cet article, nous développons un programme informatique fondé sur notre solution Ro-CamemBERT (Recurrence over CamemBERT) qui est un modèle de traitement automatique de la langue française basé sur l’apprentissage profond ou « deep learning », ce dernier consiste à faire apprendre à un modèle ou à une machine à partir d’un réseau neuronal artificiel, qui est une architecture spécifique formée de couches qui structurent des fonctions explicatives entre des extrants (variables expliquées) et une masse de données (variables explicatives). Le programme ainsi développé permet de répondre automatiquement à des questions dont les réponses se trouvent potentiellement dans les RPQS. Le décideur peut formuler des questions dont la réponse constitue une donnée recherchée. Il est alors possible de compléter une base de données existante ou d’en créer une nouvelle. Le processus d’analyse des rapports est ainsi automatisé, une évaluation de l’erreur des réponses automatiques est également effectuée pour mesurer l’écart possible entre les réponses obtenues et celles attendues. Le modèle développé apparaît comme fiable à hauteur de 80 %. Il a été testé sur des RPQS de service d’eau en Alsace.
APA, Harvard, Vancouver, ISO, and other styles
2

CORPET, F., and C. CHEVALET. "Analyse informatique des données moléculaires." INRAE Productions Animales 13, HS (December 22, 2000): 191–95. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3837.

Full text
Abstract:
Les données biologiques, en particulier les séquences d’ADN, s’accumulent extrêmement rapidement. Pour exploiter toutes ces données, une nouvelle science est née, la bioinformatique. Accéder de manière rapide et fiable aux données disponibles dans les banques internationales et analyser les données expérimentales produites à grande échelle nécessitent des outils informatiques puissants et en perpétuel développement. Assembler les séquences brutes, trouver les unités fonctionnelles des séquences génomiques, comparer les séquences entre elles, prédire les structures et les fonctions des macromolécules, comprendre les interactions entre les gènes et leurs produits en termes de réseaux métaboliques mais aussi d’évolution des espèces : toutes ces questions nécessitent l’utilisation de la bioinformatique et son développement.
APA, Harvard, Vancouver, ISO, and other styles
3

Mothe, Caroline, Estelle Delfosse, and Anne Marie Bocquet. "L’analyse de données textuelles assistée par ordinateur." Revue Française de Gestion 47, no. 295 (March 2021): 11–37. http://dx.doi.org/10.3166/rfg.2021.00525.

Full text
Abstract:
L’analyse de données textuelles (ADT), courant qui s’est développé grâce aux techniques de la linguistique informatique, a évolué de l’analyse lexicale à l’analyse sémantique. Cette approche particulière est l’occasion d’une expérience amplifiée par les possibilités graphiques d’interaction et de partage du web. En mobilisant cette approche pour l’analyse d’un corpus de près de 200 documents sur les réseaux de chaleur en France, les auteurs montrent ainsi l’utilité de l’ADT assistée par ordinateur pour les chercheurs, les praticiens et tous les acteurs qui se trouvent face au défi de devoir traiter des données massives.
APA, Harvard, Vancouver, ISO, and other styles
4

Sondi, Patrick. "Enseignement des modules Architecture-Systèmes-Réseaux en Licence Informatique à l’ère des objets connectés: plébiscite de l’apprentissage par problème ?" J3eA 21 (2022): 2027. http://dx.doi.org/10.1051/j3ea/20222027.

Full text
Abstract:
La Licence Informatique est un diplôme en plein questionnement sur son contenu et ses missions. L’essor des outils d’aide à la décision dopés par l’intelligence artificielle et la 5G qui a accéléré la virtualisation et la logicielisation des infrastructures pour l’Internet ouvrent de nouvelles compétences. A cela s’ajoutent diverses mutations : les méthodologies agiles en génie logiciel, la réalité augmentée dans les interactions homme-machine, les données massives dans les bases de données et enfin la généralisation du Web et des applications mobiles. Autant de pressions sur un programme de formation déjà mis à mal par la pluralité de métiers pour lesquels la Licence Informatique doit fournir un socle commun de connaissances au niveau national (futurs chercheurs, professionnels qualifiés, etc). Face aux moyens (volumes horaires, matériels, salles adaptées) devenus insuffisants pour former efficacement à autant d’innovations, une alternative à la fatalité réside dans les approches pédagogiques. A travers cet article, je partage une expérience personnelle sur une approche qui combine un enseignement classique afin de garantir la transmission des notions clés identifiées dans le programme, d’une part avec des travaux dirigés et pratiques construits selon l’approche de l’apprentissage par problème (APP), d’autre part. Un sondage par formulaire individuel et anonyme a permis de recueillir les impressions d’un échantillon représentatif d’étudiants en dernière année de Licence. L’article propose ainsi les données brutes relatives à ce retour afin que chacun en tire ses enseignements, face à l’analyse que j’en propose.
APA, Harvard, Vancouver, ISO, and other styles
5

Dagher, Georges, Maria Luisa Lavitrano, and Paul Hofman. "Le next-generation biobanking." médecine/sciences 34, no. 10 (October 2018): 849–51. http://dx.doi.org/10.1051/medsci/2018203.

Full text
Abstract:
La recherche biomédicale connaît depuis le début du siècle un bouleversement de grande ampleur avec l’avènement de technologies à grand débit (les -omiques) appliquées à la biologie et associées à des approches biologiques, moléculaires ou aux techniques d’imagerie. Cette révolution méthodologique s’appuie sur l’analyse d’échantillons biologiques prélevés sur les patients puis conservés dans des biobanques. L’intégration des données massives obtenues par ces différentes technologies et leur analyse devrait permettre d’accroître nos connaissances des mécanismes complexes des pathologies humaines et une meilleure stratification des patients selon une nomenclature génétique ou moléculaire. L’accroissement exponentiel des données générées et leur complexité nécessitent cependant la mise en place d’infrastructures adaptées, de nouvelles modalités d’accès et d’échanges de ces données ainsi qu’une organisation optimisée des biobanques afin d’intégrer de nouvelles disciplines adaptées à l’analyse de ces données.
APA, Harvard, Vancouver, ISO, and other styles
6

Gaultier, M. "Une base de données en anthropologie adaptée pour l'archéologie préventive. Usages, enjeux et limites au service de l'archéologie du département d'Indre-et-Loire (Sadil)." Bulletins et Mémoires de la Société d'Anthropologie de Paris 29, no. 3-4 (March 17, 2017): 159–64. http://dx.doi.org/10.1007/s13219-017-0179-8.

Full text
Abstract:
Les pratiques professionnelles en archéologie préventive liées aux contraintes de temps imposées à la réalisation des recherches sur le terrain ou lors de la phase d'étude, ainsi que la normalisation toujours plus aboutie des rapports d'opérations, favorisent l'émergence et le développement d'outils informatiques aptes à seconder archéologues et anthropologues au quotidien. Pour la gestion de séries importantes de données issues de l'étude de nécropoles ou cimetières, la création et le développement d'une base de données s'avèrent ainsi indispensables tant pour le stockage des données brutes que pour leur manipulation : tri, comparaison, analyse. L'outil informatique permet également d'automatiser certaines tâches et de normaliser la présentation des données. Cette note présente l'expérience du service de l'archéologie du département d'Indre-et-Loire en la matière.
APA, Harvard, Vancouver, ISO, and other styles
7

ASTRUC, A., A. JOUANNIN, E. LOOTVOET, T. BONNET, and F. CHEVALLIER. "LES DONNEES A CARACTERE PERSONNEL : QUELLES FORMALITES REGLEMENTAIRES POUR LES TRAVAUX DE RECHERCHE EN MEDECINE GENERALE ?" EXERCER 32, no. 172 (April 1, 2021): 178–84. http://dx.doi.org/10.56746/exercer.2021.172.178.

Full text
Abstract:
La loi de 1978 modifiée, dite « Informatique et libertés », a été complétée au niveau européen en 2018 par le Règlement général sur la protection des données (RGPD). Ces réglementations encadrent précisément le traitement des données à caractère personnel (DCP). Le délégué à la protection des données (DPO) est désormais l’acteur incontournable auprès duquel tout chercheur devra se tourner pour un accompagnement et pour la validation des formalités réglementaires à accomplir : inscription au registre des traitements des données, analyse d’impact relative à la protection des données, modalités d’information des sujets de recherche. L’objectif était de clarifier les formalités à accomplir par les chercheurs en médecine générale dans leurs obligations relatives à la protection des DCP en réalisant une synthèse de la documentation existante afin d’aboutir à des conseils pratiques adaptés aux méthodes de recherche les plus courantes en médecine générale.
APA, Harvard, Vancouver, ISO, and other styles
8

Pierrel, Jean-Marie. "Un ensemble de ressources de référence pour l’étude du français : tlfi, frantext et le logiciel stella." Revue québécoise de linguistique 32, no. 1 (February 20, 2006): 155–76. http://dx.doi.org/10.7202/012248ar.

Full text
Abstract:
Résumé Les recherches en traitement automatique des langues nécessitent de vastes ressources de référence : corpus textuels, dictionnaires informatiques, outils de traitement. Cette contribution présente les ressources linguistiques informatisées du laboratoire atilf (Analyse et Traitement Informatique de la Langue Française) accessibles sur la toile ainsi que leur diversité d’exploitation potentielle. Regroupant un ensemble de plus de 3600 textes de langue française réunis dans frantext et divers dictionnaires, lexiques et autres bases de données, ces ressources exploitent les fonctionnalités du logiciel stella, qui correspond à un véritable moteur de recherche dédié aux bases textuelles s’appuyant sur une nouvelle théorie des objets textuels.
APA, Harvard, Vancouver, ISO, and other styles
9

Nyandue Ompola, José. "La cartographie numérique et son apport dans l’organisation du recensement en République Démocratique du Congo." Revue Congolaise des Sciences & Technologies 01, no. 02 (November 20, 2022): 110–18. http://dx.doi.org/10.59228/rcst.022.v1.i2.14.

Full text
Abstract:
La cartographie assisté par l’ordinateur (CAO) repose sur l’utilisation des systèmes d’information géographique, des images à haute résolution ainsi que des récepteurs GPS (systèmes de positionnement universel) pour le levé des coordonnées géographiques x et y. Ce qui conduit à une analyse spatiale à partir des images acquises et à l’utilisation des technologies géo-spatiales, ceux-ci entrainent la production des cartes, pour qu’elles soient produites par des moyens informatisés, il faut disposer des couches des données standards tels que le shape file de limite administrative, des routes, des villes, des territoires et des hydrographies qui constituent la base des activités de cartographie de recensement et de collecte des données. Le traitement automatique des données issues des activités en amont de cartographie de recensement présente à la fois deux avantages, le premier est lié à l’efficacité, qui se traduit par la quantité de résultats pouvant être obtenus par unité d’intrants, cela montre que l’on peut en faire plus en moindre coût, d’une part, l’avantage lié à l’utilité se traduit par des effets des programmes qui bénéficient d’informations améliorées, d’autre part. La cartographie numérique de recensement est ainsi une cartographie assistée par ordinateur, elle fait appel à une technologie informatique et en tire parti des nouvelles technologies géo-spatiales pour réaliser plus rapidement de meilleures cartes et améliorer la qualité globale des données de recensement que sa mise à jour. Mots clés: Télédétection, analyse spatiale, imagerie satellite et aérienne
APA, Harvard, Vancouver, ISO, and other styles
10

Andry, Tiffany, Julia Bonaccorsi, Gilles Gesquière, Arnaud Grignard, and Thierry Joliveau. "À quoi rêvent les maquettes ? Maquette augmentée et médiation urbaine, un défi pluridisciplinaire." SHS Web of Conferences 147 (2022): 02004. http://dx.doi.org/10.1051/shsconf/202214702004.

Full text
Abstract:
Durant quatre années consécutives, un collectif d’enseignant.es et de chercheur.es a développé et suivi un projet de recherche-formation, prenant appui sur la place des maquettes dans la représentation et l’aménagement de la ville. « À quoi rêvent les maquettes ? » est un atelier de recherche-formation de plusieurs jours réunissant des groupes d’étudiant.es de master en information et communication, informatique, géographie numérique et urbanisme autour d’une maquette à « augmenter » grâce à la visualisation de données. Cet article interroge la problématique de l’usage de dispositifs de représentation urbaine tangibles dans le cadre de l’aide à la compréhension des territoires, tout en proposant une analyse réflexive qui interroge le dispositif pédagogique présenté.
APA, Harvard, Vancouver, ISO, and other styles
11

Chambon, Jean-Baptiste. "Des bureaucraties transformées par les données ?" Gouvernement et action publique VOL. 12, no. 4 (January 25, 2024): 9–30. http://dx.doi.org/10.3917/gap.234.0009.

Full text
Abstract:
Dispositif numérique permettant aux Parisiens de signaler aux services de maintenance la présence d’anomalies dans l’espace public, DansMaRue a connu durant de la décennie 2010 une ascension inédite dans le paysage de ces technologies de crowdsourcing urbain. Introduit comme un à-côté des politiques d’entretien, ce système de signalement, par le biais des masses de données qu’il génère, est devenu une architecture informatique centrale pour les activités de maintenance et se voit dans la période récente investi de différentes ambitions réformatrices. Trois facettes de l’édifice administratif parisien sont notamment visées par des logiques de rationalisation : la place octroyée aux « usagers de l’espace public » dans les activités d’entretien, le contrôle politique exercé par les élus parisiens sur les administrations de maintenance, les principes et modalités de production de l’efficacité des tournées de maintenance. Cet article propose une lecture des processus par lesquels s’est opérée cette solide inscription dans l’écosystème administratif de la maintenance urbaine, et analyse les effets sur les bureaucraties municipales que cet ancrage a occasionnés. De manière transversale, l’article met alors au jour une tendance de fond allant dans le sens de la neutralisation des aspirations réformatrices, au profit d’un renforcement ou d’une poursuite par d’autres moyens des formes bureaucratiques existantes. Pour en faire sens, il insiste sur le rôle joué par la dimension discrète et en douceur de l’approche adoptée par l’équipe en charge du système de signalement.
APA, Harvard, Vancouver, ISO, and other styles
12

Lee, Taehyung. "Tail-to-Tail Span." FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 1, no. 1 (April 1, 2003): 41–62. http://dx.doi.org/10.1075/forum.1.1.03lee.

Full text
Abstract:
Le terme TTS (tail-to-tail span), proposé pour la première fois dans ce mémoire, désigne l’écart de temps entre la fin d’une phrase à traduire et la fin de cette phrase traduite lors d’une interprétation simultanée. Le choix de ce laps de temps est une décision importante de l’interprète. Dans ce mémoire, les rapports entre cet écart de temps TTS et les autres variables sont étudiés par une analyse informatique des données réelles de l’interprétation simultanée. Cette analyse montre que l’EVS (ear-voice span), écart de temps entre l’écoute et la parole des interprètes est en moyenne de 3.46 secondes tandis que le TTS est lui, en moyenne de 4.11 secondes et plus la phrase d’origine ou la phrase traduite est longue, plus le TTS se prolonge statistiquement. Cette analyse révèle également que plus l’interprète se met à parler rapidement, plus le TTS se raccourcit et plus l’EVS est long, plus le TTS se prolonge. On remarque en particulier que, l’exactitude des phrases ayant un TTS de plus de 5 secondes est inférieure à celles ayant un TTS de moins de 3 secondes. Le TTS d’une phrase influence également les phrases suivantes en prolongeant leurs TTS et EVS, et en diminuant leur exactitude. Cela pourrait s’expliquer par le fait que la capacité de traitement des données et la mémorisation des vocabulaires sont surchargées lorsque le TTS se prolonge. De ce fait, lorsqu’un interprète passe trop de temps sur une phrase, l’exactitude des autres phrases risque de diminuer. En conclusion, il est important de donner l’équilibre au traitement des données dans la formation des interprètes au lieu d’engager trop de temps et d’efforts sur une seule phrase, ceci afin d’éviter les erreurs stratégiques de la part de l’interprète.
APA, Harvard, Vancouver, ISO, and other styles
13

Buhnila, Ioana, Georgeta Cislaru, and Amalia Todirascu. "Analyse qualitative et quantitative des « hallucinations » générées automatiquement dans un corpus de reformulations médicales." SHS Web of Conferences 191 (2024): 11001. http://dx.doi.org/10.1051/shsconf/202419111001.

Full text
Abstract:
Notre étude porte sur les « hallucinations », des productions langagières générées par des outils d’intelligence artificielle de type générateurs de textes, productions qui ne correspondent pas à ce qu’il est attendu de l’outil. Nous testons l’hypothèse selon laquelle il est possible de discerner des patrons langagiers dans ces générations inadéquates. Nous menons des analyses quantitatives et qualitatives des données, selon plusieurs entrées : le degré d’adéquation grammaticale et sémantique des séquences générées, les relations sémantiques, les fonctions sémantico-pragmatiques et les discrépances combinatoires. Nos analyses montrent que les outils de génération textuelle procèdent à de généralisations abusives en mettant en exergue des patrons dont la portée n’est pas validée par l’usage. D’un point de vue informatique, les « hallucinations » soulèvent des questions quant au paramétrage des modèles langagiers exploités par les réseaux neuronaux et la génération statistique. D’un point de vue linguistique, nos observations soulèvent la question de l’interface entre les usages purement linguistiques et leurs différents contextes sur le terrain des pratiques langagières qui ancrent ces patterns dans l’usage.
APA, Harvard, Vancouver, ISO, and other styles
14

Zerrouk, N. E., and C. Marche. "Une contribution expérimentale à l'étude de l'érosion d'une digue par submersion et son analyse." Revue des sciences de l'eau 18, no. 3 (April 12, 2005): 381–401. http://dx.doi.org/10.7202/705564ar.

Full text
Abstract:
Dans cet article, on décrit un essai réalisé sous conditions contrôlées en laboratoire concernant l'initiation et le démarrage de la rupture par submersion d'une digue de revanche homogène et en moraine, un matériel utilisé dans les ouvrages réels, de granulométrie étendue et sans cohésion. Les résultats obtenus sur cette digue expérimentale ont montré que le mécanisme de formation et d'érosion de brèche est très différent du mécanisme global et moyen de développement et de progression de la brèche adopté dans les modèles courants de calcul des ruptures de barrages. L'essai souligne l'importance de la turbulence et des pertes de charge locales dans certaines zones spécifiques de l'écoulement et met en évidence le rôle de l'instabilité des parois latérales de la brèche dont la base est sapée continuellement. L'essai a été stoppé à un moment précis, soit lorsque l'accroissement rapide du débit de rupture était confirmé, afin de préserver les caractéristiques géométriques précises de la brèche en cours de formation. Les données ainsi recueillies sur la rupture de la digue d'essai sont utiles à tout développeur voulant valider sa compréhension physique de l'érosion de brèche ou un outil de calcul visant à reproduire ce mécanisme. Le texte présente aussi une analyse comparative effectuée par un outil informatique de prévision, BRECHE, et la confrontation des résultats produits selon cinq méthodes publiées durant les dernières décennies et reconnues. Une appréciation des résultats obtenus par prévision et des nombreuses données issues de l'essai réalisé sur le modèle en laboratoire est présentée et discutée.
APA, Harvard, Vancouver, ISO, and other styles
15

Harris, Jeff R., Juan X. He, Robert Rainbird, and Pouran Behnia. "A Comparison of Different Remotely Sensed Data for Classifying Bedrock Types in Canada’s Arctic: Application of the Robust Classification Method and Random Forests." Geoscience Canada 41, no. 4 (December 3, 2014): 557. http://dx.doi.org/10.12789/geocanj.2014.41.062.

Full text
Abstract:
The Geological Survey of Canada, under the Remote Predictive Mapping project of the Geo-mapping for Energy and Minerals program, Natural Resources Canada, has the mandate to produce up-to-date geoscience maps of Canada’s territory north of latitude 60°. Over the past three decades, the increased availability of space-borne sensors imaging the Earth’s surface using increasingly higher spatial and spectral resolutions has allowed geologic remote sensing to evolve from being primarily a qualitative discipline to a quantitative discipline based on the computer analysis of digital images. Classification of remotely sensed data is a well-known and common image processing application that has been used since the early 1970s, concomitant with the launch of the first Landsat (ERTS) earth observational satellite. In this study, supervised classification is employed using a new algorithm known as the Robust Classification Method (RCM), as well as a Random Forest (RF) classifier, to a variety of remotely sensed data including Landsat-7, Landsat-8, Spot-5, Aster and airborne magnetic imagery, producing predictions (classifications) of bedrock lithology and Quaternary cover in central Victoria Island, Northwest Territories. The different data types are compared and contrasted to evaluate how well they classify various lithotypes and surficial materials; these evaluations are validated by confusion analysis (confusion matrices) as well as by comparing the generalized classifications with the newly produced geology map of the study area. In addition, three new Multiple Classification System (MCS) methods are proposed that leverage the best characteristics of all remotely sensed data used for classification. Both RCM (using the maximum likelihood classification algorithm, or MLC) and RF provide good classification results; however, RF provides the highest classification accuracy because it uses all 43 of the raw and derived bands from all remotely sensed data. The MCS classifications, based on the generalized training dataset, show the best agreement with the new geology map for the study area.SOMMAIREDans le cadre de son projet de Télécartographie prédictive du Programme de géocartographie de l’énergie et des minéraux de Ressources naturelles Canada, la Commission géologique du Canada a le mandat de produire des cartes géoscientifiques à jour du territoire du Canada au nord de la latitude 60°. Au cours des trois dernières décennies, le nombre croissant des détecteurs aérospatiaux aux résolutions spatiales et spectrales de plus en plus élevées a fait passer la télédétection géologique d’une discipline principalement qualitative à une discipline quantitative basée sur l'analyse informatique d’images numériques. La classification des données de télédétection est une application commune et bien connue de traitement d'image qui est utilisée depuis le début des années 1970, parallèlement au lancement de Landsat (ERST) le premier satellite d'observation de la Terre. Dans le cas présent, nous avons employé une méthode de classification dirigée en ayant recours à un nouvel algorithme appelé Méthode de classification robuste (MRC), ainsi qu’au classificateur Random Forest (RF), appliqués à une variété de données de télédétection dont celles de Landsat-7, Landsat-8, Spot-5, Aster et d’imagerie magnétique aéroportée, pour produire des classifications prédictives de la lithologie du substratum rocheux et de la couverture Quaternaire du centre de l'île Victoria, dans les Territoires du Nord-Ouest. Les différents types de données sont comparés et contrastés pour évaluer dans quelle mesure ils classent les divers lithotypes et matériaux de surface; ces évaluations sont validés par analyse de matrices de confusion et par comparaison des classifications généralisées des nouvelles cartes géologiques de la zone d'étude. En outre, trois nouvelles méthodes par système de classification multiple (MCS) sont proposées qui permettent d’exploiter les meilleures caractéristiques de toutes les données de télédétection utilisées pour la classification. Tant la méthode MRC (utilisant l'algorithme de classification de vraisemblance maximale ou MLC que la méthode RF donne de bons résultats de classification; toutefois c’est la méthode RF qui offre la précision de classification la plus élevée car elle utilise toutes les 43 les bandes de données brutes et dérivées de toutes les données de télédétection. Les classifications MCS, basées sur le jeu de données généralisées d’apprentissage, montrent le meilleur accord avec la nouvelle carte géologique de la zone d'étude.
APA, Harvard, Vancouver, ISO, and other styles
16

Dembele, Simon Pierre, Ladjel Bellatreche, Carlos Ordonez, Nabil Gmati, Mathieu Roche, Tri Nguyen-Huu, and Laurent Debreu. "Big Steps Towards Query Eco-Processing - Thinking Smart." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 34 - 2020 - Special... (March 30, 2021). http://dx.doi.org/10.46298/arima.6767.

Full text
Abstract:
Soumission à Episciences International audience Computers and electronic machines in businesses consume a significant amount of electricity, releasing carbon dioxide (CO2), which contributes to greenhouse gas emissions. Energy efficiency is a pressing concern in IT systems, ranging from mobile devices to large servers in data centers, in order to be more environmentally responsible. In order to meet the growing demands in the awareness of excessive energy consumption, many initiatives have been launched on energy efficiency for big data processing covering electronic components, software and applications. Query optimizers are one of the most power consuming components of a DBMS. They can be modified to take into account the energetical cost of query plans by using energy-based cost models with the aim of reducing the power consumption of computer systems. In this paper, we study, describe and evaluate the design of three energy cost models whose values of energy sensitive parameters are determined using the Nonlinear Regression and the Random Forests techniques. To this end, we study in depth the operating principle of the selected DBMS and present an analysis comparing the performance time and energy consumption of typical queries in the TPC benchmark. We perform extensive experiments on a physical testbed based on PostreSQL, MontetDB and Hyrise systems using workloads generatedusing our chosen benchmark to validate our proposal. Les ordinateurs et les machines électroniques des entreprises consomment une quantité importante d’électricité, libérant ainsi du dioxyde de carbone (CO2), qui contribue aux émissions de gaz à effet de serre. L’efficacité énergétique est une préoccupation urgente dans les systèmesinformatiques, partant des équipements mobiles aux grands serveurs dans les centres de données, afin d’être plus respectueux envers l’environnement. Afin de répondre aux exigences croissantes en matière de sensibilisation à l’utilisation excessive de l’énergie, de nombreuses initiatives ont été lancées sur l’efficacité énergétique pour le traitement des données massives couvrant les composantsélectroniques, les logiciels et les applications. Les optimiseurs de requêtes sont l’un des composants les plus énergivores d’un SGBD. Ils peuvent être modifiés pour prendre en compte le coût énergétique des plans des requêtes à l’aide des modèles de coût énergétiques intégrés dans l’optimiseur dans le but de réduire la consommation électrique des systèmes informatiques. Dans cet article, nousétudions, décrivons et évaluons la conception de trois modèles de coût énergétique dont les valeurs des paramètres sensibles à l’énergie sont définis en utilisant la technique de la Régression non linéaire et la technique des forêts aléatoires. Pour ce fait, nous menons une étude approfondie du principe de fonctionnement des SGBD choisis et présentons une analyse des performances en termes de temps et énergie sur des requêtes typiques du benchmarks TPC-H. Nous effectuons des expériences approfondies basées sur les systèmes PostgreSQL, MonetDB et Hyrise en utilisant un jeu de données généré à partir du benchmarks TPC-H afin de valider nos propositions.
APA, Harvard, Vancouver, ISO, and other styles
17

HUGON, Florèn, Xavier NAVARRO, Matt RODRIGUEZ, Gabriel DAS NEVES, Matthieu BERRONEAU, and Frank D'AMICO. "Mise en forme et contrôle qualité de données, l’informatique au service de l’écologie." Naturae, no. 2 (January 26, 2022). http://dx.doi.org/10.5852/naturae2022a2.

Full text
Abstract:
Dans de nombreuses disciplines scientifiques, des études expérimentales ou des suivis sur le terrain assurent la récolte de données. Celles-ci sont stockées sur des fichiers bruts avec un format intuitif, permettant une saisie facile par l’expérimentateur. Cependant, ce format brut est rarement directement compatible avec l’analyse des données récoltées et peut engendrer des analyses erronées ; il est nécessaire d’effectuer une mise en forme et un contrôle qualité des données. Face au nombre de jeux de données brutes croissants et toujours plus massifs, la discipline du numérique pour les sciences du vivant s’est développée. La programmation informatique représente une aide précieuse pour les modélisateurs puisqu’elle permet d’automatiser la mise en forme et le contrôle qualité qui nécessitent souvent un nettoyage des données. Dans cet article, nous présentons une collaboration entre informaticien et modélisateur dans le cadre du suivi de l’abondance d’espèces animales. Les données récoltées sur plusieurs feuilles d’un tableur sont regroupées sur une seule et leur qualité est vérifiée. Les diverses fonctionnalités du programme effectuant cette vérification ont été mises en place à l’aide de la méthode « agile », méthode de développement informatique constituée de sprints. Après la fourniture d’une version du programme, un nouveau sprint définit une nouvelle fonctionnalité à mettre en place par l’informaticien dans une nouvelle version du programme. La première version permet l’appropriation du jeu de données par l’informaticien grâce à la fonctionnalité de mise en forme. Une version plus avancée gère l’absence de données, puis d’autres contrôlent la qualité des données récoltées et rapportent le traitement des anomalies détectées – donnée absente ou erronée ou en dehors d’une plage spécifiée – dans un fichier texte. Ce programme informatique a été explicité afin qu’il puisse être ré-approprié et ré-utilisé. Sa version complète est déposée dans GitHub. Le lien est donné en conclusion.
APA, Harvard, Vancouver, ISO, and other styles
18

Langlois, Ganaele M. "Networks and Layers: Technocultural Encodings of the World Wide Web." Canadian Journal of Communication 30, no. 4 (January 10, 2006). http://dx.doi.org/10.22230/cjc.2005v30n4a1636.

Full text
Abstract:
Abstract: This paper calls for a cultural analysis of the World Wide Web through a focus on the technical layers that shape the Web as a medium. Web technologies need to be acknowledged as not only shaped by social processes, but also deployed, through standardization and automation, as agents that render representation possible by following specific technocultural logics. Thus, the focus is on the relationship between hardware, software, and culture through an analysis of the layers of encoding that translate data into discourse, and vice versa. Résumé : Cet article appelle au développement d’une analyse culturelle du Web axée sur les couches technologiques qui transforment le Web en média. Les technologies Web ne doivent pas seulement être reconnues comme étant façonnées par des processus sociaux, mais aussi comme étant déployées, au travers de phénomènes de standardisation et d’automatisation, comme agents qui rendent toute représentation possible en suivant des logiques technoculturelles spécifiques. Ainsi, la priorité est donnée aux relations entre le matériel informatique, les logiciels et les processus culturels au travers d’une analyse des couches de codage qui traduisent les données informatiques en discours, et vice-versa.
APA, Harvard, Vancouver, ISO, and other styles
19

"Analyse des Données et Informatique Fourth International Symposium Data Analysis And Informatics 7-8-9 octobre 1985/October 7, 8, 9, 1985/Versailles." Annales des Télécommunications 40, no. 3-4 (March 1985): 230. http://dx.doi.org/10.1007/bf02997850.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Sanger, William, and Thierry Warin. "Public’s Perception of Political Parties during the 2014 Quebec Election on Twitter." Canadian Journal of Communication 43, no. 2 (May 26, 2018). http://dx.doi.org/10.22230/cjc.2018v43n2a3251.

Full text
Abstract:
Background This article investigates how to extract signals from social media (Twitter) concerning political parties during an election.Analysis 670,000 messages were collected during the 2014 Québec election regarding each political party using a framing strategy. After associating each message to one of the four main topics of the campaign, two logistic models were developed to describe the election. While having been set by the incumbent party, the topic of “Independence” was not the most important topic of the campaign (“Economy” and “Society” were). When dominating in terms of mentions, each party was associated to a topic, and such association changed during the campaign.Conclusion and implications From a practical standpoint, the findings of this article could be used to implement a framework to understand political campaigns dynamics through social media.RÉSUMÉContexte Cette recherche est axée sur la manière de structurer les signaux issus des médias sociaux (Twitter) en contexte politique. Analyse Nous avons collecté 670 000 messages concernant l’élection québécoise de 2014 en utilisant une stratégie de cadrage. Chaque message fut associé à une thématique de campagne, puis deux modèles logistiques furent utilisés pour décrire les élections. Ainsi, alors que le thème de l’indépendance fut mis à l’avant par le parti sortant, ce sont les messages reliés à l’économie et à la société qui furent les plus importants. Chaque parti fut associé préférentiellement à une thématique lorsqu’il domina en termes de mentions, et nous observons une évolution de cette association au cours de la campagne électorale. Conclusions et implications Les résultats de cette recherche peuvent servir de cadre analytique pour structurer l’utilisation de données massives en contexte électoral.
APA, Harvard, Vancouver, ISO, and other styles
21

Almeida, Hugo Leonardo Nascimento, Walter Franklin Marques Correia, and Adiel Teixeira de Almeida Filho. "Évaluations heuristiques pour les décisions en matière d’accessibilité : revue systématique de la littérature." Revista Científica Multidisciplinar Núcleo do Conhecimento, March 30, 2023, 107–53. http://dx.doi.org/10.32749/nucleodoconhecimento.com.br/informatique/evaluations-heuristiques.

Full text
Abstract:
De plus en plus de personnes utilisent quotidiennement la technologie pour communiquer et accéder à l’information, y compris les personnes âgées et les personnes handicapées. Les technologies d’assistance, aussi appelées aides techniques, sont des ressources d’accessibilité et d’inclusion qui offrent un plus grand degré d’autonomie et d’aide aux personnes qui ont un certain degré de difficulté à utiliser les ressources dans leur contact avec des environnements réels et virtuels. Le but de cette étude est d’étudier les perceptions sur l’évaluation heuristique de l’accessibilité dans les logiciels en entreprenant une revue systématique de la littérature qui couvre les 5 dernières années. Cela a commencé avec un total de 8548 articles publiés qui sont indexés dans les bases de données Scopus et Web of Science. Douze questions de recherche pertinentes ont été rédigées et ont reçu une réponse conforme aux résultats trouvés dans la série finale d’articles. Deux groupes de mots-clés ont été créés pour faciliter la recherche d’articles et un processus de filtrage a été appliqué aux résultats des recherches. La recherche montre, au moyen de chiffres et de tableaux, des preuves de la croissance des articles scientifiques dans le domaine. Les auteurs principaux et les revues qui publient sur l’évaluation de l’accessibilité des logiciels sont énumérés, de même que les réponses aux questions sur les modèles d’évaluation, les heuristiques, les mesures, les limites, les technologies d’assistance et les publics cibles les plus cités dans les articles publiés. Cette étude analyse également la co-citation des références et des couples sources bibliographiques. La recherche a montré qu’il n’y a pas de consensus général sur l’utilisation d’un modèle unique pour évaluer l’accessibilité, mais que les directives WCAG du W3C sont les sources les plus utilisées pour référencer les heuristiques et les métriques dans les études de ce type. Il a également été remarqué que la plupart des études ne se concentrent pas sur les technologies d’assistance, mais sont largement utilisées pour appuyer les décisions sur les sites Web.
APA, Harvard, Vancouver, ISO, and other styles
22

Bessi, Radhia. "Approximation with activation functions and applications." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 32 - 2019 - 2020 (April 30, 2021). http://dx.doi.org/10.46298/arima.6464.

Full text
Abstract:
International audience Function approximation arises in many branches of applied mathematics and computer science, in particular in numerical analysis, in finite element theory and more recently in data sciences domain. From most common approximation we cite, polynomial, Chebychev and Fourier series approximations. In this work we establish some approximations of a continuous function by a series of activation functions. First, we deal with one and two dimensional cases. Then, we generalize the approximation to the multi dimensional case. Examples of applications of these approximations are: interpolation, numerical integration, finite element and neural network. Finally, we will present some numerical results of the examples above. La théorie d’approximation des fonctions couvre de nombreuses branches en mathématiques appliquées, en informatique et en sciences de l’ingénieur, en particulier en analyse numérique, en théorie des éléments finis et plus récemment en sciences des données. Parmi les approximations fortement utilisées nous citons les approximations polynomiale de type Lagrange, Hermite ou au sens de Chebychev. Nous trouvons aussi l’approximation d’une fonction par une séries de Fourier, l’approximation rationnelle...Dans ce travail, nous établissons quelques résultats d’approximations d’une fonction continue par une série de fonctions de type activation. Nous traitons d’abord les cas d’une fonction à une seule puis à deux variables, puis nous généralisons l’approximation au cas multidimensionnel. Nous appliquons ces approximations pour l’interpolation et l’intégration numérique, en éléments finis et en réseau neuronal. Nous donnons pour chaque application quelques résultats numériques.
APA, Harvard, Vancouver, ISO, and other styles
23

Cockx, Bart. "Numéro 160 - mars 2021." Regards économiques, March 4, 2021. http://dx.doi.org/10.14428/regardseco/2021.03.04.01.

Full text
Abstract:
Ce numéro de Regards économiques analyse la question de la formation des demandeurs d’emploi en Belgique, du côté néerlandophone en particulier. Ces formations sont-elles efficaces pour améliorer l’insertion professionnelle des chômeurs et si oui, pour quels demandeurs d’emploi en particulier ? Pour mener cette étude, Bart Cockx, spécialiste des questions du marché de l’emploi, a travaillé en collaboration avec le VDAB (le service public de l’emploi flamand) et le professeur Michael Lechner (Université de Saint-Gall en Suisse). Ils ont utilisé les techniques d’analyse statistique des Big Data. Ils les ont appliquées à un grand ensemble de données administratives anonymisées sur des demandeurs d’emploi résidant en Flandre. Ces techniques permettent de prévoir le gain d’emploi qu’un chômeur peut espérer de sa participation à une formation donnée. Les trois résultats majeurs présentés dans cette étude sont les suivants : Quelles sont les formations les plus efficaces ? Parmi les types de formation étudiés (sessions d’orientation professionnelle, formation professionnelle de type court et formations de durée moyenne), ce sont les formations professionnelles courtes qui sont les plus efficaces; elles augmentent la durée moyenne passée en emploi des participants de 3,5 mois (soit + 21 %) par rapport à l’absence de participation. Pour quel profil de demandeur d’emploi les formations sont les plus efficaces ? Les formations ont le plus d’impact sur le retour à l’emploi des immigrés récents dont la connaissance du néerlandais est limitée. Comment améliorer l’efficacité des formations ? Si le VDAB attribuait les programmes de formation aux demandeurs d’emploi selon l’algorithme informatique développé par les chercheurs, on obtiendrait une augmentation de 20 % de la durée passée en emploi grâce aux formations. Cette étude démontre que les outils informatiques et statistiques peuvent apporter un soutien dans l’attribution des politiques d’aide à l’emploi pour les chômeurs mais également que les gains d’emploi peuvent être conséquents si on alloue les formations à celles et ceux qui en tirent le plus de bénéfices.
APA, Harvard, Vancouver, ISO, and other styles
24

Auger, Reginald, and Allison Bain. "Anthropologie et archéologie." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.030.

Full text
Abstract:
Les parcours sinueux qu’ont suivis l’anthropologie et l’archéologie en Amérique du Nord depuis une cinquantaine d’années démontrent des intérêts convergents pour la connaissance et l’explication du comportement humain et cela avec des méthodes de recherche de plus en plus divergentes. L’anthropologie qui a émergé des milieux intellectuels aux États-Unis au XIXe siècle avait pour origine l’intérêt pour la compréhension des populations autochtones de l’Amérique; de cet intérêt pour l’humain, se sont développés des outils pour comprendre le comportement qui se cachait derrière le geste posé. Dès le début, l’anthropologue s’intéressait aux comportements et l’archéologue documentait les traces du geste posé. De cette proximité entre l’anthropologie et l’archéologie qui s’est concrétisée par la création du Bureau of American Ethnology à la fin du XIXe siècle, il était naturel de placer la formation en archéologie au sein de départements d’anthropologie dans les universités aux États-Unis et au Canada. Malgré l’apparence initiale d’un champ unifié et d’un terrain partagé entre l’anthropologie et l’archéologie, la pratique s’est transformée pour devenir tout autre au fil des ans. Au milieu du XXe siècle, l’archéologie commence à remettre en question sa relation avec les interprétations fonctionnalistes des anthropologues (Trigger 2006 : 363-372). La première figure à souligner le problème de l’inéquation entre les résultats de la recherche archéologique et la théorie en anthropologie fut Walter Taylor (1948) dans son livre A Study of Archaeology. Taylor, le relativiste, exposa son penchant pour le particularisme historique dans une approche qu’il identifie comme étant conjonctive; pour ce chercheur iconoclaste, l’historiographie comptait pour beaucoup. L’approche conjonctive consistait à établir des corrélations entre différents types de données dans des contextes historiques et culturels spécifiques afin de faire le pont entre des particularités historiques (les collections archéologiques) et des données anthropologiques. La méthodologie qu’il proposait impliquait la vérification d’hypothèses par l’analyse de la composition et de la structure des collections archéologiques. L’objectif central de cette approche visait à mettre de l’avant des études contextuelles détaillées qui permettraient d’adapter des hypothèses générales sur la culture à des données spécifiques. Dans sa formulation de l’approche conjonctive en archéologie et la vérification d’hypothèses, Taylor reconnaissait qu’une réflexion critique était nécessaire puisque l'archéologue travaillait dans le présent. En dépit de la richesse des collections archéologiques et constatant le danger qui planait sur l’archéologie si nous avions continué à publier des listes d’attributs de nos objets au lieu d’interpréter la culture matérielle comme étant la trace du comportement humain, dans un geste de médiation entre l’anthropologie et l’archéologie, Binford (1962) publiait son article portant le titre Archaeology as Anthropology. Comme il le signale dans son introduction son article qui faisait suite à un ouvrage venant d’être publié par Willey et Phillips (1958) où l’on mentionne clairement que l’archéologie américaine « c’est de l’anthropologie ou rien du tout ». Ce geste d’éclat dans une période charnière de l’enseignement de l’archéologie dans les universités nord-américaines allait donner naissance à un nouveau paradigme que l’on appela la New Archaeology aussi connue sous le nom d’archéologie processuelle. Un tel changement de paradigme venait en contradiction avec les pratiques européennes en matière d’archéologie préhistorique, notamment celles de l’École de Bordeaux et de François Bordes, son membre le plus influent, qui avait réussi à imposer sa vision sur le sens de la variabilité des outils en pierre du paléolithique moyen (Bordes 1961; 1984). Dans sa thèse de doctorat intitulée The Bordes-Binford Debate: Transatlantic Interpretive Traditions in Paleolithic Archaeology, Melissa C. Wargo (2009) présente une analyse en profondeur des modes de pensée qui diffèrent entre l’Europe et l’Amérique du Nord. Essentiellement, le raisonnement traditionnel voulait que l’apparition d’une nouvelle culture archéologique (de nouveaux types) puisse signifier la manifestation d’un nouveau groupe de personnes, un groupe ethnique détectable avec les outils de l’archéologie. C’est ce que nous apprenions à la lecture des travaux de François Bordes sur les changements technologiques observés au paléolithique moyen. Lorsque Binford est parvenu à étudier les mêmes collections, il proposa des interprétations toutes autres. Ainsi, alors que pour Bordes, des outils différents représentent des groupes différents; si l’ensemble de l’assemblage ne peut être attribué à un groupe avoisinant, peut-être alors que certains éléments peuvent l’être. Et si de tels parallèles peuvent être établis, l’approche de Bordes a pour corollaire que c’est là le lieu d’origine de la population à l’étude et que nous serions en présence d’une diffusion de traits culturels à partir de la migration d’un groupe ethnique. Pour Binford, la différence dans la composition des assemblages devrait plutôt être interprétée comme étant le résultat d’adaptations; pour ce chercheur, les assemblages archéologiques sont des coffres d’outils adaptés pour une fonction particulière. Nonobstant la grande quantité de statistiques accumulées, Binford, de son propre aveu, admit qu’il fut incapable d’expliquer ce qu’elles signifiaient. En d’autres mots, il avait beaucoup d’information sur le présent mais ne pouvait l’expliquer par manque d’analogie avec le passé. En dépit de ces différences d’opinion, l’utilité de la typologie de Bordes réside dans le fait qu’elle fournissait un langage descriptif; cette typologie a cependant été par la suite rejetée par certains chercheurs qui considéraient que la définition des types de François Bordes était inadéquate parce que trop subjective. Pire encore, Bordes a été accusé d’incorporer dans ses interprétations des hypothèses non vérifiées sur les capacités cognitives des hominidés durant le paléolithique moyen. De nos jours, nos analyses de la technologie visent à remplacer cette approche typologique de Bordes par une méthode s’appuyant sur la combinaison d’attributs dont la description porte davantage sur le comportement. De toute évidence, le débat entre le promoteur de la New Archaeology et la figure de proue de l’archéologie française et son approche taxonomique en pierre a permis de mettre en évidence un malaise profond sur la façon dont le passé devrait être interprété. Ce débat est aussi emblématique de traditions scientifiques différentes entre l’Europe et l’Amérique du Nord. C’est dans ce contexte intellectuel que sont nés des départements d’anthropologie associant l’anthropologie culturelle, l’anthropologie biologique, la linguistique et l’archéologie. Ces quatre champs sont apparus à des moments bien précis de l’histoire des universités nord-américaines mais de nos jours, la réalité de l’anthropologie est devenue beaucoup plus complexe (Bruner 2010). Un étudiant en archéologie peut avoir des besoins de formation en géographie, en histoire, en géologie, en botanique, en biologie, en ethnohistoire, en systèmes d’information géographique, en informatique, etc. alors qu’un étudiant en anthropologie pour atteindre un niveau de compétence élevé pourrait avoir besoin de formation en histoire, en science politique, en sociologie, en art, en littérature, en théorie critique, etc. Malgré que les besoins aient grandement changé depuis la création des départements d’anthropologie, les structures académiques sont demeurées statiques. La protection des départements d’anthropologie dans leur configuration actuelle des quatre champs relève le plus souvent des politiques universitaires. Ainsi, même si les professeurs étaient d’accord qu’il serait intellectuellement plus profitable de scinder ces gros départements, la question de diviser les départements d’anthropologie en unités plus petites qui feraient la promotion de l’interdisciplinarité dans les sciences humaines et sociales n’est pas envisagée dans la plupart des universités nord-américaines (Smith 2011). Au milieu de cette tourmente, se sont développés un certain nombre de départements et de programmes d’archéologie en Amérique du Nord. De là est née une discipline émancipée du joug des structures trop rigides et se donnant un ensemble de méthodes de recherche qui lui étaient propres. La trajectoire conceptuelle empruntée par ceux-ci a permis de remonter au-delà du geste et de la parole en retenant une classe cohérente de concepts explicatifs développés, certes en anthropologie, mais raffinés et adaptés au contact de l’archéologie et d’autres disciplines en sciences humaine et sociales et sciences de la nature. Cette indépendance intellectuelle de l’anthropologie s’est notamment affirmée par des collaborations entre l’archéologie et la philosophie des sciences (Kelly et Hanen 1988; Salmon 1982; Wylie 2002; Wylie et Chapman 2015). La croissance de l’intérêt pour les explications processuelles des données archéologiques chez plusieurs archéologues nord-américains fut motivée par le fait que les néo-évolutionistes en anthropologie mettaient trop l'accent sur les régularités dans les cultures. Les concepts utilisés en archéologie processuelle exerçaient une influence significative sur notre discipline et l’adoption de cette approche théorique était d’autant plus attrayante car les variables proposées se présentaient comme des causes majeures de changements culturels et relativement accessibles à partir des vestiges archéologiques. Cette approche s'intensifia et donna de nouvelles directions aux tendances déjà présentes en archéologie préhistorique. Dans ce changement de paradigme qui donna naissance au courant de la Nouvelle Archéologie en Amérique du Nord et à un moindre degré au Royaume-Uni, l’accent était placé sur la vérification d’hypothèses sur les processus culturels comme outils d’explication du passé. De la position qu’elle occupait comme l’un des quatre sous-champs de l’anthropologie ou encore, de celle de servante de l’histoire, l’archéologie est devenue l’un des plus vastes champs du monde académique (Sabloff 2008 : 28). En plus d’avoir trouvé son ancrage théorique dans les sciences sociales et humaines, l’archéologie, attirée par les techniques et méthodes fraie régulièrement avec les sciences physiques et les sciences de la nature. En se donnant ses propres méthodes de collecte et d’analyse pour l’examen de cultures distinctes et en poursuivant avec des comparaisons interculturelles, la discipline cherchait à mieux comprendre les cultures qui se sont développées à travers le temps et l’espace. Puisque l’objet d’étude de l’archéologie porte sur les traces de groupes humains dans leur environnement naturel et leur univers social, les questions qu’elle se pose sont fondamentales à l’histoire de l’humanité et pour répondre à de telles questions elle s’est dotée de méthodologies d’enquête qui lui sont propres. L’utilisation d’équipements sophistiqués pour déterminer la composition chimique des résidus lipidiques incrustés sur un outil en pierre taillée ou encore, les recherches sur la composition physico-chimique de la pâte d’une céramique sont des techniques visant à répondre à des questions d’ordre anthropologique. Le quand et le comment du passé sont relativement faciles à identifier alors que pour découvrir le pourquoi l’archéologue fait souvent appel à l’analogie ethnographique, une méthodologie issue de l’insatisfaction des archéologues à l’endroit des travaux en anthropologie culturelle (David et Kramer 2001). Une autre méthodologie est celle de l’archéologie expérimentale qui s’intéresse à la fabrication et à l’usage des outils (Tringham 1978), méthode similaires à celle de l’ethnoarchéologie. L’expérimentation à partir d’outils fabriqués par le chercheur et les banques de données provenant d’expérimentations contrôlées servent alors d’éléments de comparaison pour interpréter la forme des assemblages archéologiques (Chabot et al. 2014) est au centre de la méthode préconissée. Le développement de l’ethnoarchéologie durant les années 1970 aurait inspiré Binford (1981) lorsqu’il mit de l’avant l’utilisation de théories de niveau intermédiaire pour établir un lien entre ses données archéologiques et les théories de niveau supérieur sur le comportement. Sa décision semble avoir reposé sur les développements de l’approche ethnoarchéologique et ses propres terrains ethnoarchéologiques chez les Nunamiut de l’Alaska (Binford 1978). D’autres orientations théoriques ont vu le jour au cours des années 1960–1970 et ont fait la distinction entre différentes approches matérialistes par rapport à des schémas évolutionnistes antérieurs. Par exemple, Leslie White (1975) adopta une forme de déterminisme technologique très étroit qui reflétait une croyance en la technologie comme source de progrès social. Julian Steward (1955) envisagea un déterminisme écologique moins restrictif alors que Marvin Harris (1968) y voyait un déterminisme économique encore plus large. Pour ces quelques positivistes le rôle que l’archéologie se devait de jouer était d’expliquer la culture matérielle du passé. Quant à l’archéologue Lewis Binford (1987), il soutenait que l’étude des relations entre le comportement humain et la culture matérielle ne devrait pas être le rôle central de l’archéologie puisque selon lui, les données ne contiendraient aucune information directe sur les relations entre le comportement humain et la culture matérielle. Dorénavant, les données archéologiques se devaient d’être comprises par elles-mêmes, sans avoir recours à des analogies ethnographiques. Cette dernière approche voulait clairement établir de la distance entre l’archéologie, l’anthropologie culturelle, l’ethnologie et peut-être les sciences sociales en général ; son mérite était peut-être, justement, d’éviter les réductionnismes et les analogies rapides entre explications anthropologiques et assemblages archéologiques. Dans la même veine, d’autres remises en question sont apparues durant les années 1980 avec les travaux d’Ian Hodder (1982; 1985) sur la validité des certitudes positivistes qui avaient été le fonds théorique et empirique des adeptes de la New Archaeology. Depuis cette réflexion sur l’essence même de l’archéologie, Hodder a reconnu qu’une position critique est fondamentale face à l’objet d’étude; naquit alors le courant théorique post-processuel en archéologie. Dans son cheminement pour découvrir la signification des vestiges qu’elle étudie, l’archéologie post-processuelle s’appuie sur des études détaillées permettant d’adapter des hypothèses générales sur la culture à des données spécifiques en exploitant la diversité des sources; cette direction du courant post-processuel en archéologie porte le nom d’archéologie contextuelle. Comme tout changement de paradigme apporte avec lui son lot de détracteurs, l’archéologie post-processuelle a été immédiatement accusée d’une trop grande subjectivité interprétative voire, de déconstructionisme. Les autres orientations placées sous le label archéologie post-processuelle incluent : le structuralisme, le néo-marxisme, l’archéologie cognitive, la phénoménologie, et d’autres encore Ainsi l’individu, l’agent ou l’acteur et son intentionnalité devrait être au centre des interprétations dans la théorie post-processuelle. Nous pouvons conclure que l’examen de la relation entre l’anthropologie et l’archéologie en Amérique du Nord a permis de constater que, depuis ses débuts, l’archéologie dans cette région du monde a vécu une liaison relativement tumultueuse avec l’anthropologie. Cette condition, souvent problématique, a vu naître, au Canada d’abord, des groupuscules d’archéologues avec des intérêts divergents qui se sont distanciés des paradigmes qui dominaient les départements d’anthropologie pour former des départements d’archéologie ou des programmes d’archéologie autonomes des programmes d’anthropologie. Sur les chemins empruntés ces nouveaux départements sont entrés en relation avec les départements de sciences naturelles, notamment, la géographie, avec laquelle les archéologues ont partagé un ensemble de concepts et de méthodes. Il en a résulté un enseignement de l’archéologie nettement interdisciplinaire et faisant appel à des méthodes quantitatives pour comprendre la culture matérielle dans son environnement naturel et expliquer son milieu culturel à partir de concepts empruntés aussi bien aux sciences humaines qu’aux sciences naturelles.
APA, Harvard, Vancouver, ISO, and other styles
25

Leclerc, Véronique, Alexandre Tremblay, and Chani Bonventre. "Anthropologie médicale." Anthropen, 2020. http://dx.doi.org/10.17184/eac.anthropen.125.

Full text
Abstract:
L’anthropologie médicale est un sous-champ de l’anthropologie socioculturelle qui s’intéresse à la pluralité des systèmes médicaux ainsi qu’à l’étude des facteurs économiques, politiques et socioculturels ayant un impact sur la santé des individus et des populations. Plus spécifiquement, elle s’intéresse aux relations sociales, aux expériences vécues, aux pratiques impliquées dans la gestion et le traitement des maladies par rapport aux normes culturelles et aux institutions sociales. Plusieurs généalogies de l’anthropologie médicale peuvent être retracées. Toutefois, les monographies de W.H.R. Rivers et d’Edward Evans-Pritchard (1937), dans lesquelles les représentations, les connaissances et les pratiques en lien avec la santé et la maladie étaient considérées comme faisant intégralement partie des systèmes socioculturels, sont généralement considérées comme des travaux fondateurs de l’anthropologie médicale. Les années 1950 ont marqué la professionnalisation de l’anthropologie médicale. Des financements publics ont été alloués à la discipline pour contribuer aux objectifs de santé publique et d’amélioration de la santé dans les communautés économiquement pauvres (Good 1994). Dans les décennies qui suivent, les bases de l’anthropologie médicale sont posées avec l’apparition de nombreuses revues professionnelles (Social Science & Medicine, Medical Anthropology, Medical Anthropology Quarterly), de manuels spécialisés (e.g. MacElroy et Townsend 1979) et la formation du sous-groupe de la Society for Medical Anthropology au sein de l’American Anthropological Association (AAA) en 1971, qui sont encore des points de références centraux pour le champ. À cette époque, sous l’influence des théories des normes et du pouvoir proposées par Michel Foucault et Pierre Bourdieu, la biomédecine est vue comme un système structurel de rapports de pouvoir et devient ainsi un objet d’étude devant être traité symétriquement aux autres systèmes médicaux (Gaines 1992). L’attention portée aux théories du biopouvoir et de la gouvernementalité a permis à l’anthropologie médicale de formuler une critique de l’hégémonie du regard médical qui réduit la santé à ses dimensions biologiques et physiologiques (Saillant et Genest 2007 : xxii). Ces considérations ont permis d’enrichir, de redonner une visibilité et de l’influence aux études des rationalités des systèmes médicaux entrepris par Evans-Pritchard, et ainsi permettre la prise en compte des possibilités qu’ont les individus de naviguer entre différents systèmes médicaux (Leslie 1980; Lock et Nguyen 2010 : 62). L’aspect réducteur du discours biomédical avait déjà été soulevé dans les modèles explicatifs de la maladie développés par Arthur Kleinman, Leon Eisenberg et Byron Good (1978) qui ont introduit une distinction importante entre « disease » (éléments médicalement observables de la maladie), « illness » (expériences vécues de la maladie) et « sickness » (aspects sociaux holistes entourant la maladie). Cette distinction entre disease, illness et sickness a joué un rôle clé dans le développement rapide des perspectives analytiques de l’anthropologie médicale de l’époque, mais certaines critiques ont également été formulées à son égard. En premier lieu, Allan Young (1981) formule une critique des modèles explicatifs de la maladie en réfutant l'idée que la rationalité soit un model auquel les individus adhèrent spontanément. Selon Young, ce modèle suggère qu’il y aurait un équivalant de structures cognitives qui guiderait le développement des modèles de causalité et des systèmes de classification adoptées par les personnes. Au contraire, il propose que les connaissances soient basées sur des actions, des relations sociales, des ressources matérielles, avec plusieurs sources influençant le raisonnement des individus qui peuvent, de plusieurs manières, diverger de ce qui est généralement entendu comme « rationnel ». Ces critiques, ainsi que les études centrées sur l’expérience des patients et des pluralismes médicaux, ont permis de constater que les stratégies adoptées pour obtenir des soins sont multiples, font appel à plusieurs types de pratiques, et que les raisons de ces choix doivent être compris à la lumière des contextes historiques, locaux et matériaux (Lock et Nguyen 2010 : 63). Deuxièmement, les approches de Kleinman, Eisenberger et Good ont été critiquées pour leur séparation artificielle du corps et de l’esprit qui représentait un postulat fondamental dans les études de la rationalité. Les anthropologues Nancy Scheper-Hughes et Margeret Lock (1987) ont proposé que le corps doit plutôt être abordé selon trois niveaux analytiques distincts, soit le corps politique, social et individuel. Le corps politique est présenté comme étant un lieu où s’exerce la régulation, la surveillance et le contrôle de la différence humaine (Scheper-Hughes et Lock 1987 : 78). Cela a permis aux approches féministes d’aborder le corps comme étant un espace de pouvoir, en examinant comment les discours sur le genre rendent possible l’exercice d’un contrôle sur le corps des femmes (Manderson, Cartwright et Hardon 2016). Les premiers travaux dans cette perspective ont proposé des analyses socioculturelles de différents contextes entourant la reproduction pour contrecarrer le modèle dominant de prise en charge médicale de la santé reproductive des femmes (Martin 1987). Pour sa part, le corps social renvoie à l’idée selon laquelle le corps ne peut pas être abordé simplement comme une entité naturelle, mais qu’il doit être compris en le contextualisant historiquement et socialement (Lupton 2000 : 50). Finalement, considérer le corps individuel a permis de privilégier l’étude de l’expérience subjective de la maladie à travers ses variations autant au niveau individuel que culturel. Les études de l’expérience de la santé et la maladie axées sur l’étude des « phénomènes tels qu’ils apparaissent à la conscience des individus et des groupes d’individus » (Desjarlais et Throop 2011 : 88) se sont avérées pertinentes pour mieux saisir la multitude des expériences vécues des états altérés du corps (Hofmann et Svenaeus 2018). En somme, les propositions de ces auteurs s’inscrivent dans une anthropologie médicale critique qui s’efforce d’étudier les inégalités socio-économiques (Scheper-Hughes 1992), l’accès aux institutions et aux savoirs qu’elles produisent, ainsi qu’à la répartition des ressources matérielles à une échelle mondiale (Manderson, Cartwright et Hardon 2016). Depuis ses débuts, l’anthropologie médicale a abordé la santé globale et épidémiologique dans le but de faciliter les interventions sur les populations désignées comme « à risque ». Certains anthropologues ont développé une perspective appliquée en épidémiologie sociale pour contribuer à l’identification de déterminants sociaux de la santé (Kawachi et Subramanian 2018). Plusieurs de ces travaux ont été critiqués pour la culturalisation des pathologies touchant certaines populations désignées comme étant à risque à partir de critères basés sur la stigmatisation et la marginalisation de ces populations (Trostle et Sommerfeld 1996 : 261). Au-delà des débats dans ce champ de recherche, ces études ont contribué à la compréhension des dynamiques de santé et de maladie autant à l’échelle globale, dans la gestion des pandémies par l’Organisation Mondiale de la Santé (OMS), qu’aux échelles locales avec la mise en place de campagnes de santé publique pour faciliter l’implantation de mesures sanitaires, telles que la vaccination (Dubé, Vivion et Macdonald 2015). L’anthropologie a contribué à ces discussions en se penchant sur les contextes locaux des zoonoses qui sont des maladies transmissibles des animaux vertébrés aux humains (Porter 2013), sur la résistance aux antibiotiques (Landecker 2016), comme dans le cas de la rage et de l’influenza (Wolf 2012), sur les dispositifs de prévention mis en place à une échelle mondiale pour éviter l’apparition et la prolifération d’épidémies (Lakoff 2010), mais aussi sur les styles de raisonnement qui sous-tendent la gestion des pandémies (Caduff 2014). Par ailleurs, certains auteur.e.s ont utilisé le concept de violence structurelle pour analyser les inégalités socio-économiques dans le contexte des pandémies de maladies infectieuses comme le sida, la tuberculose ou, plus récemment, l’Ébola (Fassin 2015). Au-delà de cet aspect socio-économique, Aditya Bharadwaj (2013) parle d’une inégalité épistémique pour caractériser des rapports inégaux dans la production et la circulation globale des savoirs et des individus dans le domaine de la santé. Il décrit certaines situations comme des « biologies subalternes », c’est à dire des états de santé qui ne sont pas reconnus par le système biomédical hégémonique et qui sont donc invisibles et vulnérables. Ces « biologies subalternes » sont le revers de citoyennetés biologiques, ces dernières étant des citoyennetés qui donnes accès à une forme de sécurité sociale basée sur des critères médicaux, scientifiques et légaux qui reconnaissent les dommages biologiques et cherche à les indemniser (Petryna 2002 : 6). La citoyenneté biologique étant une forme d’organisation qui gravite autour de conditions de santé et d’enjeux liés à des maladies génétiques rares ou orphelines (Heath, Rapp et Taussig 2008), ces revendications mobilisent des acteurs incluant les institutions médicales, l’État, les experts ou encore les pharmaceutiques. Ces études partagent une attention à la circulation globale des savoirs, des pratiques et des soins dans la translation — ou la résistance à la translation — d’un contexte à un autre, dans lesquels les patients sont souvent positionnés entre des facteurs sociaux, économiques et politiques complexes et parfois conflictuels. L’industrie pharmaceutique et le développement des technologies biomédicales se sont présentés comme terrain important et propice pour l’analyse anthropologique des dynamiques sociales et économiques entourant la production des appareils, des méthodes thérapeutiques et des produits biologiques de la biomédecine depuis les années 1980 (Greenhalgh 1987). La perspective biographique des pharmaceutiques (Whyte, Geest et Hardon 2002) a consolidé les intérêts et les approches dans les premières études sur les produits pharmaceutiques. Ces recherches ont proposé de suivre la trajectoire sociale des médicaments pour étudier les contextes d’échanges et les déplacements dans la nature symbolique qu’ont les médicaments pour les consommateurs : « En tant que choses, les médicaments peuvent être échangés entre les acteurs sociaux, ils objectivent les significations, ils se déplacent d’un cadre de signification à un autre. Ce sont des marchandises dotées d’une importance économique et de ressources recelant une valeur politique » (traduit de Whyte, Geest et Hardon 2002). D’autres ont davantage tourné leur regard vers les rapports institutionnels, les impacts et le fonctionnement de « Big Pharma ». Ils se sont intéressés aux processus de recherche et de distribution employés par les grandes pharmaceutiques à travers les études de marché et les pratiques de vente (Oldani 2014), l’accès aux médicaments (Ecks 2008), la consommation des produits pharmaceutiques (Dumit 2012) et la production de sujets d’essais cliniques globalisés (Petryna, Lakoff et Kleinman 2006), ainsi qu’aux enjeux entourant les réglementations des brevets et du respect des droits politiques et sociaux (Ecks 2008). L’accent est mis ici sur le pouvoir des produits pharmaceutiques de modifier et de changer les subjectivités contemporaines, les relations familiales (Collin 2016), de même que la compréhensions du genre et de la notion de bien-être (Sanabria 2014). Les nouvelles technologies biomédicales — entre autres génétiques — ont permis de repenser la notion de normes du corps en santé, d'en redéfinir les frontières et d’intervenir sur le corps de manière « incorporée » (embodied) (Haraway 1991). Les avancées technologiques en génomique qui se sont développées au cours des trois dernières décennies ont soulevé des enjeux tels que la généticisation, la désignation de populations/personnes « à risque », l’identification de biomarqueurs actionnables et de l’identité génétique (TallBear 2013 ; Lloyd et Raikhel 2018). Au départ, le modèle dominant en génétique cherchait à identifier les gènes spécifiques déterminant chacun des traits biologiques des organismes (Lock et Nguyen 2010 : 332). Cependant, face au constat que la plupart des gènes ne codaient par les protéines responsables de l’expression phénotypique, les modèles génétiques se sont depuis complexifiés. L’attention s’est tournée vers l’analyse de la régulation des gènes et de l’interaction entre gènes et maladies en termes de probabilités (Saukko 2017). Cela a permis l’émergence de la médecine personnalisée, dont les interventions se basent sur l’identification de biomarqueurs personnels (génétiques, sanguins, etc.) avec l’objectif de prévenir l’avènement de pathologies ou ralentir la progression de maladies chroniques (Billaud et Guchet 2015). Les anthropologues de la médecine ont investi ces enjeux en soulevant les conséquences de cette forme de médecine, comme la responsabilisation croissante des individus face à leur santé (Saukko 2017), l’utilisation de ces données dans l’accès aux assurances (Hoyweghen 2006), le déterminisme génétique (Landecker 2011) ou encore l’affaiblissement entre les frontières de la bonne santé et de la maladie (Timmermans et Buchbinder 2010). Ces enjeux ont été étudiés sous un angle féministe avec un intérêt particulier pour les effets du dépistage prénatal sur la responsabilité parentale (Rapp 1999), l’expérience de la grossesse (Rezende 2011) et les gestions de l’infertilité (Inhorn et Van Balen 2002). Les changements dans la compréhension du modèle génomique invitent à prendre en considération plusieurs variables en interaction, impliquant l’environnement proche ou lointain, qui interagissent avec l’expression du génome (Keller 2014). Dans ce contexte, l’anthropologie médicale a développé un intérêt envers de nouveaux champs d’études tels que l’épigénétique (Landecker 2011), la neuroscience (Choudhury et Slaby 2016), le microbiome (Benezra, DeStefano et Gordon 2012) et les données massives (Leonelli 2016). Dans le cas du champ de l’épigénétique, qui consiste à comprendre le rôle de l’environnement social, économique et politique comme un facteur pouvant modifier l’expression des gènes et mener au développement de certaines maladies, les anthropologues se sont intéressés aux manières dont les violences structurelles ancrées historiquement se matérialisent dans les corps et ont des impacts sur les disparités de santé entre les populations (Pickersgill, Niewöhner, Müller, Martin et Cunningham-Burley 2013). Ainsi, la notion du traumatisme historique (Kirmayer, Gone et Moses 2014) a permis d’examiner comment des événements historiques, tels que l’expérience des pensionnats autochtones, ont eu des effets psychosociaux collectifs, cumulatifs et intergénérationnels qui se sont maintenus jusqu’à aujourd’hui. L’étude de ces articulations entre conditions biologiques et sociales dans l’ère « post-génomique » prolonge les travaux sur le concept de biosocialité, qui est défini comme « [...] un réseau en circulation de termes d'identié et de points de restriction autour et à travers desquels un véritable nouveau type d'autoproduction va émerger » (Traduit de Rabinow 1996:186). La catégorie du « biologique » se voit alors problématisée à travers l’historicisation de la « nature », une nature non plus conçue comme une entité immuable, mais comme une entité en état de transformation perpétuelle imbriquée dans des processus humains et/ou non-humains (Ingold et Pálsson 2013). Ce raisonnement a également été appliqué à l’examen des catégories médicales, conçues comme étant abstraites, fixes et standardisées. Néanmoins, ces catégories permettent d'identifier différents états de la santé et de la maladie, qui doivent être compris à la lumière des contextes historiques et individuels (Lock et Nguyen 2010). Ainsi, la prise en compte simultanée du biologique et du social mène à une synthèse qui, selon Peter Guarnaccia, implique une « compréhension du corps comme étant à la fois un système biologique et le produit de processus sociaux et culturels, c’est-à-dire, en acceptant que le corps soit en même temps totalement biologique et totalement culturel » (traduit de Guarnaccia 2001 : 424). Le concept de « biologies locales » a d’abord été proposé par Margaret Lock, dans son analyse des variations de la ménopause au Japon (Lock 1993), pour rendre compte de ces articulations entre le matériel et le social dans des contextes particuliers. Plus récemment, Niewöhner et Lock (2018) ont proposé le concept de biologies situées pour davantage contextualiser les conditions d’interaction entre les biologies locales et la production de savoirs et de discours sur celles-ci. Tout au long de l’histoire de la discipline, les anthropologues s’intéressant à la médecine et aux approches de la santé ont profité des avantages de s’inscrire dans l’interdisciplinarité : « En anthropologie médical, nous trouvons qu'écrire pour des audiences interdisciplinaires sert un objectif important : élaborer une analyse minutieuse de la culture et de la santé (Dressler 2012; Singer, Dressler, George et Panel 2016), s'engager sérieusement avec la diversité globale (Manderson, Catwright et Hardon 2016), et mener les combats nécessaires contre le raccourcies des explications culturelles qui sont souvent déployées dans la littérature sur la santé (Viruell-Fuentes, Miranda et Abdulrahim 2012) » (traduit de Panter-Brick et Eggerman 2018 : 236). L’anthropologie médicale s’est constituée à la fois comme un sous champ de l’anthropologie socioculturelle et comme un champ interdisciplinaire dont les thèmes de recherche sont grandement variés, et excèdent les exemples qui ont été exposés dans cette courte présentation.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography