Literatura académica sobre el tema "Génération de données de synthèse"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Génération de données de synthèse".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Génération de données de synthèse"

1

Lefèvre-Fonollosa, Marie-José, Sylvain Michel y Steven Hosford. "HYPXIM — An innovative spectroimager for science, security, and defence requirements". Revue Française de Photogrammétrie et de Télédétection, n.º 200 (19 de abril de 2014): 20–27. http://dx.doi.org/10.52638/rfpt.2012.58.

Texto completo
Resumen
Cet article présente un aperçu des applications et des besoins de données hyperspectrales recueillis par un groupe adhoc d'une vingtaine de scientifiques français et d'utilisateurs Civil et de la Défense (i.a. dual). Ce groupe connu sous l'acronyme GHS (Groupe de Synthèse en Hyperspectral) a défini les exigences techniques pour une mission spatiale de haute résolution en hyperspectral répondant aux besoins des thèmes suivants: la végétation naturelle et agricole, les écosystèmes aquatiques côtiers et lacustres, les géosciences, l'environnement urbain, l'atmosphère, la sécurité et la défense.La synthèse de ces exigences a permis de décrire les spécifications d'un satellite très innovant en terme de domaine spectral, de résolution spectrale, de rapport signal à bruit, de résolution spatiale, de fauchée et de répétitivité. HYPXIM est une mission hyperspectrale spatiale de nouvelle génération qui répond aux besoins d'une large communauté d'utilisateurs de données à haute résolution dans le monde.Les principaux points ont été étudiés dans la phase 0 (pré-phase A) menée par le CNES avec ses partenaires industriels (EADS-Astrium et Thales Alenia Space). Deux concepts de satellites ont été étudiés et comparés. Le premier, appelé HYPXIM-C, vise à obtenir le niveau de résolution le plus élevé possible (15 m) réalisable en utilisant une plateforme de microsatellite. Les objectifs du deuxième, appelé HYPXIM-P, sont d'atteindre une résolution spatiale supérieure d'un facteur deux en hyperspectral (7-8m), un canal panchromatique (2m) et de fournir une capacité en infrarouge hyperspectral (100 m) sur un mini satellite. La phase A HYPXIM a été récemment décidée. Elle démarre en 2012 en se concentrant sur le concept le plus performant. Le défi pour la mission HYPXIM qui a été sélectionnée est de concevoir un spectroimageur à haute résolution spatiale, sur un mini-satellite agile à moindre coût.Ces études préliminaires ouvrent des perspectives pour un lancement possible en 2020/21 en fonction du développement des technologies critiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Enzo, Lombardo y Graziella Caselli. "Graphiques et analyse démographique : quelques éléments d'histoire et d'actualité". Population Vol. 45, n.º 2 (1 de marzo de 1990): 399–414. http://dx.doi.org/10.3917/popu.p1990.45n2.0414.

Texto completo
Resumen
Résumé CASELLI Graziella, ENZO Lombarde - Graphiques et analyse démographique : quelques éléments d'histoire et d'actualité. La représentation graphique en démographie remonte à 1669, date à laquelle Christian Huy- gens illustra la fonction de survie, dans le but de calculer les durée moyenne et médiane de vie à un âge donné. Dans cet article, les auteurs soulignent les contributions graphiques qui, à la suite de celle de Huygens, ont le plus marqué l'histoire de l'analyse démographique. Durant la première moitié du XIXe siècle, J. B. Fourier et A. Quetelet ont fait un usage très efficace du graphique, facilitant la compréhension et la synthèse des phénomènes. Au cours de la seconde moitié du siècle (1860-1880), divers auteurs (Berg, Knapp, Zeuner, Becker, Lexis et Lewin) ont tenté de résoudre le problème de la représentation en trois dimensions de données démographiques par âge, période et génération. Ces efforts ont abouti d'une part au fameux diagramme de Lexis et d'autre part aux stéréogrammes dont ceux de Perozzo, chaleureusement accueillis à l'époque et brièvement décrits ici Les auteurs présentent, pour terminer, la technique récemment mise au point dite de «représentation en courbes de niveaux» des «surfaces démographiques». Cette technique traite les intensités en fonction de l'âge et du temps, comme on traite, en cartographie, l'altitude en fonction de la latitude et de la longitude. Elle permet à l'œil de suivre simultanément les évolutions en fonction de l'âge, de la période et de la génération.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Borlenghi, Aldo y Catherine Coquidé. "Les aqueducs romains de Lyon et d’ailleurs : nouveaux repères". Gallia 80, n.º 1 (2023): 11–44. http://dx.doi.org/10.4000/11ucm.

Texto completo
Resumen
Introduire le dossier « Aqueducs romains de Lyon et d’ailleurs : nouveaux repères », c’est se placer à la suite de plusieurs générations de chercheurs depuis le xvie s. et présenter le cadre de la recherche archéologique contemporaine. Celle-ci a généré en trois décennies un grand nombre de données qu’il a fallu partager et organiser. Le groupe « Aqueducs lyonnais », où tous les chercheurs, quelle que soit leur institution de rattachement, étaient invités à échanger, s’est attelé à la tâche à partir de 2015 pour aboutir à ce volume. Ce dernier propose de faire un état des lieux en quatre thèmes – tracés, construction, datation, arrivée à Lyon – et y ajoute, à l’aune d’autres adductions de l’Empire, un travail de synthèse à même de poser de nouveaux repères pour l’exploration d’un réseau d'adduction d'eau parmi les plus étendus de son temps.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Sardon, Jean-Paul. "Une aide à l'analyse: les lignes d'isoquotients. L'exemple de la nuptialité". Population Vol. 46, n.º 6 (1 de junio de 1991): 1405–27. http://dx.doi.org/10.3917/popu.p1991.46n6.1427.

Texto completo
Resumen
Résumé Sardon Jean-Paul. - Une aide à l'analyse : les lignes d'isoquotients. L'exemple de la nuptialité. Dans l'étude de la fécondité d'une année donnée, l'utilisation des événements réduits ne suscite généralement pas de débat. Par contre, dans le domaine de la nuptialité des célibataires, et particulièrement en période de modification du calendrier, on s'interroge régulièrement sur le choix de l'indice pertinent : synthèse par les taux (de seconde catégorie) ou synthèse par les quotients. En effet, pour ceux qui interprètent la somme des taux comme un indicateur d'intensité dans une cohorte fictive, le fait d'observer plus d'un premier mariage par personne disqualifie l'indice. Ils prônent alors l'utilisation des quotients, dont la synthèse, par construction, ne peut dépasser l'unité. Chacun de ces indices a ses vertus propres, et l'on doit limiter leur usage aux champs pour lesquels ils sont le mieux adaptés, en se gardant d'étendre leur interprétation au-delà du raisonnable. L'analyse transversale ne doit servir qu'à mesurer le «climat» de l'année quant au phénomène étudié, tout en essayant de mettre en évidence les modifications observées dans les générations qui pourraient en partie déterminer le niveau de l'année et permettraient de dresser l'évolution future dans les cohortes. Mais, pour ce faire, il faut que l'analyse soit menée de la manière la plus complète possible, en combinant les informations complémentaires fournies par les deux synthèses. Pour éviter le double travail de calcul des taux et des quotients, nous proposons d'utiliser la relation qui lie taux et quotients : le taux rapporte les événements à la population totale ayant déjà subi ou non l'événement, alors que le quotient ne les rapporte qu'à celle n'ayant pas encore subi l'événement Taux et quotient sont donc attachés l'un à l'autre à chaque âge par la proportion de personnes n'ayant pas encore subi l'événement. La relation stricte entre les trois éléments de la table de nuptialité peut être présentée sous forme d'un abaque constitué de trois réseaux : un réseau vertical qui correspond à la valeur du taux de nuptialité, un réseau horizontal qui représente la proportion de personnes déjà mariées et un réseau oblique qui donne la valeur des quotients. Chaque oblique reliant les points correspondant à une même valeur du quotient constitue une ligne d'isoquotients. Le maillage permet donc, par simple lecture sur la graduation oblique, d'estimer le niveau du quotient de nuptialité, sans autre calcul ~".z celui du taux à l'âge x et du cumul des taux jusqu'à l'âge x-l dans une même cohorte. L'assimilation des taux aux événements de la table faite ainsi suppose que les conditions d'indépendance et de continuité sont remplies. L'examen des données françaises sur la nuptialité depuis 1968 montre que ces conditions peuvent être raisonnablement considérées comme réalisées : l'erreur commise aux âges de plus forte nuptialité, c'est-à-dire avant 30 ans, est presque toujours largement inférieure à S %. Cette absence de biais important dans la mesure de la nuptialité en France, au cours des vingt dernières années, légitime l'utilisation de ce graphique qui associe sur une même figure le taux, la somme des taux et le quotient
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Sigogne, Philippe y Véronique Riches. "Genèse des indicateurs cycliques, et maturation aux États-Unis". Revue de l'OFCE 45, n.º 3 (1 de junio de 1993): 199–244. http://dx.doi.org/10.3917/reof.p1993.45n1.0199.

Texto completo
Resumen
Résumé Les fluctuations économiques sont nées avec l'économie. Reconnues depuis des millénaires, elles ont été considérées comme des fatalités pendant toute l'ère préindustrielle, en raison de la prédominance de l'agriculture. Les prix, certains salaires, et les taux d'intérêt restèrent longtemps les seuls éléments chiffrés a vec quelque régularité. Les matériaux nécessaires à la mesure des fluctuations réelles n'apparurent qu'avec le développement des manufactures et de l'emploi salarié. Le cours des théories économiques a aussi reflété révolution des structures économiques. Bien souvent les économistes ont manqué de recul dans leurs tentatives d'explication, faute d'instruments statistiques établis sur la longue durée. Au milieu du XIXème siècle l'accent est mis sur les crises endogènes du capitalisme ; à la fin du siècle il porte sur les oscillations autour de l'équilibre. Ces réflexions, progressivement alimentées par le développement des statistiques monétaires et industrielles, donnent naissance au concept des cycles économiques. Les fluctuations sont alors classées selon leur durée et analysées en termes d'écart et de retour à une position d'équilibre de court et de long terme. La Grande dépression des années trente met un terme à une première génération d'indicateurs cycliques, coupables d'avoir mal anticipé la crise. Par réaction les nouvelles recherches refusent tout a priori théorique. Le NBER américain développe alors une analyse systématique des statistiques existantes sur la base d'une définition des cycles fondamentalement empirique. La notion de cycle des affaires est à présent inchangée depuis plus d'un demi-siècle. Elle a permis une datation historique peu contestable des cycles de référence puis une sélection d'indicateurs conformes au mouvement général des affaires dont la première liste remonte à 1937. Simultanément s'est développée une mesure du degré de diffusion du phénomène cyclique, sorte de précurseur des enquêtes de conjoncture. La publication des indicateurs cycliques commence avec les années soixante. Elle popularise les termes d'indicateurs avancés, coïncidents et retardés, puis en 1968 celui d'indice composite. Ce dernier connaît un succès médiatique qui nuit souvent à sa réputation, nombre d'utilisateurs voyant là un moyen commode de prévision sans réflexion. En réalité les indicateurs cycliques doivent être abordés en tant que système où cohabitent indices composites, indices de diffusion, et données exogènes au monde des affaires. Le système d'indicateurs a entériné par ses révisions successives les progrès des statistiques. Il constitue non seulement un tableau de bord conjoncturel complet mais aussi une synthèse des principaux enchaînements des actes économiques privés. Il semble par ailleurs bien résister aux mutations structurelles provoquées par la montée du tertiaire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Lacaze-Masmonteil, Th. "Une nouvelle génération de surfactants de synthèse". Archives de Pédiatrie 15 (junio de 2008): S42—S46. http://dx.doi.org/10.1016/s0929-693x(08)73946-0.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

ESSALMANI, R., S. SOULIER, N. BESNARD, M. HUDRISIER, J. COSTA DA SILVA y J. L. VILOTTE. "Données de base sur la transgenèse". INRAE Productions Animales 13, HS (22 de diciembre de 2000): 181–86. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3835.

Texto completo
Resumen
La transgenèse permet d’introduire dans le génome d’un animal un fragment d’ADN qui sera ensuite transmis de génération en génération. Elle utilise différentes approches méthodologiques. Certaines, encore limitées à peu d’espèces, permettent des modifications très fines du génome. La transgenèse, associée au développement de la biologie moléculaire, offre des applications multiples tant dans la recherche fondamentale qu’appliquée. Elle est de fait devenue un outil indispensable pour l’analyse de la régulation de l’expression des gènes et la compréhension de leur fonction.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Fleury, Charles. "La génération X au Québec : une génération sacrifiée ?" Recherche 49, n.º 3 (5 de febrero de 2009): 475–99. http://dx.doi.org/10.7202/019877ar.

Texto completo
Resumen
Cet article examine de manière comparative le parcours professionnel de diverses générations québécoises à partir des données transversales recueillies par Statistique Canada depuis 1976. Il cherche plus spécifiquement à savoir jusqu’à quel point la génération X constitue une génération sacrifiée, comme l’ont laissé entendre nombre d’observateurs au cours des années 1980 et 1990. L’analyse montre que, si toutes les générations ont été touchées d’une manière ou d’une autre par les mutations économiques des dernières décennies, la génération X semble avoir, plus que toute autre cohorte, cumulé de multiples désavantages sur le marché du travail. Non seulement a-t-elle connu d’importantes difficultés d’insertion professionnelle, mais elle a aussi été la pionnière d’un nouveau modèle de travail ainsi que d’un nouveau cycle de vie professionnelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Blackburn, Heidi. "La prochaine génération d’employés". Documentation et bibliothèques 63, n.º 1 (28 de febrero de 2017): 48–60. http://dx.doi.org/10.7202/1039073ar.

Texto completo
Resumen
Une étude de cas fondée sur les données se penche sur les questions suivantes : 1) quels sont les facteurs sociaux, culturels, économiques et politiques qui motivent les hommes (18-30 ans) à devenir bibliothécaires professionnels aux États-Unis ; 2) dans quelle mesure la technologie a-t-elle motivé les hommes (18-30 ans) à devenir bibliothécaires professionnels et ; 3) quels sont les stéréotypes professionnels auxquels ils sont confrontés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Vintila, Ruxandra. "Kalideos Adam : Synthèse et retour d'expérience". Revue Française de Photogrammétrie et de Télédétection, n.º 197 (22 de abril de 2014): 112–18. http://dx.doi.org/10.52638/rfpt.2012.87.

Texto completo
Resumen
Le projet de recherche ADAM a été une coopération scientifique entre la France et la Roumanie dédiée à l'Assimilation de Données spatiales par Agro-Modélisation, dont le promoteur et commanditaire a été le Centre National d'Études Spatiales. Le papier présente les principales approches utilisées et les résultats novateurs obtenus dans ADAM: constitution de la première base de données de télédétection de référence, production d'une série temporelle d'images Spot XS de haute qualité, méthode de suivi de l'humidité surfacique du sol au long du cycle cultural à partir d'imagesradar, définition de la fréquence optimale de revisite pour l'agriculture à l'échelle de la parcelle, développement d'une stratégie performante d'assimilation variationnelle de données spatiales dans les modèles de fonctionnement du couvert végétal, calcul du modèle adjoint d'un modèle complexe de fonctionnement par différentiation automatique, améliorationde la modélisation du transfert radiatif par la prise en compte de l'agrégation des feuilles dans le couvert (modèle CLAMP).
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Génération de données de synthèse"

1

Molinari, Isabelle. "Test de génération de thrombine sur ACL7000 (développement d'un programme de traitement des données sur Microsoft Excel et éléments d'analyse de l'intérêt du test dans les états d'hypercoagulabilité)". Bordeaux 2, 1999. http://www.theses.fr/1999BOR23102.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Pazat, Jean-Louis. "Génération de code réparti par distribution de données". Habilitation à diriger des recherches, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00170867.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Baez, miranda Belen. "Génération de récits à partir de données ambiantes". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Texto completo
Resumen
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Morisse, Pierre. "Correction de données de séquençage de troisième génération". Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR043/document.

Texto completo
Resumen
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain
The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Khalili, Malika. "Nouvelle approche de génération multi-site des données climatiques". Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/580/1/KHALILI_Malika.pdf.

Texto completo
Resumen
Les générateurs de climat sont des outils statistiques permettant de générer de longues séries temporelles de variables climatiques et de simuler le climat futur en tenant compte des scénarios de changements climatiques. La dépendance spatiale est une propriété primordiale des données climatiques négligée par les générateurs de climat uni-site. La présente thèse a permis de développer une approche de génération multi-site des données climatiques basée sur le concept d'autocorrélation spatiale. L'approche a permis de reproduire simultanément dans les séries générées de données climatiques, les autocorrélations spatiales observées sur l'ensemble des stations météorologiques et les corrélations observées entre les couples de stations. L'approche est appliquée avec succès au bassin versant de la rivière Péribonca situé dans la province du Québec, Canada Une étude hydrologique a permis de confirmer la performance du générateur multi-site développé et sa capacité à évaluer avec plus de précision et de fiabilité les impacts des changements climatiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Genestier, Richard. "Vérification formelle de programmes de génération de données structurées". Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2041/document.

Texto completo
Resumen
Le problème général de la preuve de propriétés de programmes impératifs est indécidable. Pour deslangages de programmation et de propriétés plus restrictifs, des sous-problèmes décidables sontconnus. En pratique, grâce à des heuristiques, les outils de preuve de programmes automatisent despreuves qui sortent du cadre théorique de ces sous-problèmes décidables connus. Nous illustronscette réussite pratique en construisant un catalogue de preuves, pour des programmes et despropriétés de nature similaire et de complexité croissante. Ces programmes sont principalementdes générateurs de cartes combinatoires.Ainsi, ce travail contribue aux domaines de recherche de la combinatoire énumérative et dugénie logiciel. Nous distribuons une bibliothèque C de générateurs exhaustifs bornés de tableauxstructurés, formellement spécifiés en ACSL et vérifiés avec le greffon WP de la plateforme d’analyseFrama-C. Nous proposons également une méthodologie de test qui facilite la preuve interactive enCoq, une étude formelle des cartes originale, et de nouveaux résultats en combinatoire énumérative
The general problem of proving properties of imperative programs is undecidable. Some subproblems– restricting the languages of programs and properties – are known to be decidable. Inpractice, thanks to heuristics, program proving tools sometimes automate proofs for programs andproperties living outside of the theoretical framework of known decidability results. We illustrate thisfact by building a catalog of proofs, for similar programs and properties of increasing complexity. Mostof these programs are combinatorial map generators.Thus, this work contributes to the research fields of enumerative combinatorics and softwareengineering. We distribute a C library of bounded exhaustive generators of structured arrays, formallyspecified in ACSL and verified with the WP plugin of the Frama-C analysis platform. We also proposea testing-based methodology to assist interactive proof in Coq, an original formal study of maps, andnew results in enumerative combinatorics
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Hattab, Z'hour. "Synthèse d'hétérocycles phosphorylés dérivés d'acides aminés : Application à la synthèse d'antitumoraux de nouvelle génération". Paris 13, 2010. http://www.theses.fr/2010PA132033.

Texto completo
Resumen
Les oxazaphosphorinanes sont des agents alkylants utilisés en chimiothérapie mais présentant des effets indésirables et une certaine toxicité. D’autre part, les bisphosphonates sont des composés utilisés dans le traitement de l’ostéoporose et des métastases osseuses. Ils présentent également des effets secondaires non-négligeables et une faible biodisponibilité lorsqu’ils sont administrés par voie orale, due à leur faible lipophilie. Notre étude a donc porté sur la synthèse d’hétérocycles phosphorylés dérivés d’acides aminés du type oxazaphospholidinones et sur leur couplage avec des bisphosphonates afin d’obtenir des molécules antitumorales de nouvelle génération. Elles devraient être alors plus efficaces à plus faible dose, afin de diminuer les effets secondaires engendrés. Dans un premier temps, il a fallu synthétiser, à partir de dérivés d’amino-alcools, des oxazaphospholidinones protégées sur l’atome d’azote. Différents groupes protecteurs ont été introduits : benzyl, tert-butyloxycarbonyl (Boc) ou benzyloxycarbonyl (Cbz). Ces composés ont été obtenus sous forme de mélange de deux diastéréoisomères (P2S,C4S et P2R,C4S ; la configuration C4S étant fixée par la configuration de l’amino-acide de départ). Ils ont pu être séparés par chromatographie sur colonne ou cristallisation. Les diastéréoisomères ont été caractérisés par spectroscopies IR et RMN et spectrométrie de masse et ont fait l’objet d’études cristallographiques. La deuxième partie de notre travail présente la déprotection du groupement benzyloxycarbonyl (Cbz), mais également les essais d’hydrogénolyse ou d’oxydation du groupe benzyl qui n’ont pas abouti. Enfin, les essais de couplage du bisphosphonate sur l’oxazaphospholidine protégée n’ont malheureusement pas permis d’obtenir les composés ciblés
Oxazaphosphorinanes are alkylant agents used in chemotherapy but showing undesirable effects and toxicity. On the other hand, bisphosphonates are compounds used in the treatment of osteoporosis and bone metastases. They generate some side effects and have a poor bioavailability by oral absorption, due to their poor lipophilicity. Our study consisted in synthesize phosphorylated heterocycles derivated from aminoacids called oxazaphospholidinones and their coupling with bisphosphonates in order to obtain new antitumoral molecules. They could be more efficient with less undesirable effects. In a first part, we have synthesized nitrogen-protected oxazaphospholidinones from amino-alcohols. Different protective groups have been studied : benzyl, tert-butyloxycarbonyl (Boc) or benzyloxycarbonyl (Cbz). These compounds were obtained as a mixture of two diastereoisomers (P2S,C4S and P2R,C4S ; the configuration C4S was fixed by the configuration of the starting aminoacid). They were separated by column chromatography or crystallization. Diastereoisomers were characterized by IR and NMR spectroscopies and mass spectrometry and a crystallographic study was realized. In the second part, we present the deprotection of the benzyloxycarbonyl group (Cbz) and the unsuccessful hydrogenolysis or oxidation assays of benzyl group. Lastly, coupling of bisphosphonate with protected oxazaphospholidine unfortunately failed
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Caron, Maxime. "Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Texto completo
Resumen
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Effantin, dit Toussaint Brice. "Colorations de graphes et génération exhaustive d'arbres". Dijon, 2003. http://www.theses.fr/2003DIJOS021.

Texto completo
Resumen
Les travaux de recherche présentés dans ce mémoire montrent deux approches de la théorie des graphes. Dans un premier temps, nous caractérisons certains graphes en utilisant la coloration de graphes. Ainsi nous étudions deux paramètres de coloration qui maximisent le nombre de couleurs utilisées et mettent en évidence certains ensembles dominants de sommets pour les graphes étudiés (graphes puissances, somme cartésienne de graphes). Dans un second temps, nous étudions divers algorithmes de génération pour des arbres binaires particuliers. En effet, le morphing de polygones (problème sous-jacent au morphing d'images) peut être réalisé par une suite de rotations d'arbres binaires étiquetés. Nous présentons également des algorithmes de génération des arbres binaires étiquetés et des arbres binaires non ordonnés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Chevrier, Christine. "Génération de séquences composées d'images de synthèse et d'images vidéo". Nancy 1, 1996. http://www.theses.fr/1996NAN10121.

Texto completo
Resumen
Les études d'impact en architecture sont réalisées jusqu'à présent sur la base de dessins, de photographies retouchées, de maquettes ou plus récemment encore d'images de synthèse. Mais ces techniques sont coûteuses et peu réalistes. La synthèse d'image seule nécessite une modélisation tridimensionnelle non seulement de la future construction mais aussi de son environnement (immeubles, rues, ouvrages d'art, végétation, etc). Cette façon de procéder s'avère longue et fournit des images peu réalistes eu égard à la complexité du monde réel et à l'impossibilité d'en modéliser tous les détails. La composition d'images de synthèse et de photographies peut être un autre moyen de représentation plus fiable et plus rapide. L'incrustation d'images de synthèse de projets dans leur site réel que l'on a préalablement photographié est une technique prometteuse à la fois du point de vue temps car elle ne nécessite pas de modélisation détaillée de l'environnement existant, et du point de vue réalisme car celui-ci est garanti par la photographie même. Une telle technique où la réalité est «augmentée» par l'addition d'images d'objets qui ne sont encore que virtuels (puisqu'à l'état de projet) pose néanmoins de nombreux problèmes qu'il convient de résoudre pour obtenir une cohérence au niveau de l'image, à la fois du point de vue géométrique et du point de vue photométrique. Pour ce faire, la conception et la mise en oeuvre de modèles d'analyse et de synthèse d'images sont nécessaires. Appliquée dans le cadre du calcul d'une séquence d'images (ou film vidéo) et non plus dans celui d'une seule image, cette technique peut augmenter le réalisme d'une simulation de façon spectaculaire. L’objectif de ce travail était la mise au point, le test et l'intégration de diverses méthodes d'analyse et de synthèse pour la composition réaliste d'images de synthèse et d'images vidéo dans le cadre de la simulation de projets d'architecture et de projets urbains. Ce mémoire présente les différentes étapes nécessaires à l'incrustation réaliste d'objets virtuels dans un environnement réel. Pour chacune de ces étapes, diverses méthodes ont été proposées, mises en oeuvre et testées afin de sélectionner la ou les solutions les plus adaptées et de les intégrer dans la plate-forme de développement de l'équipe. L'application de cette étude a été la simulation du projet d'éclairage du Pont Neuf à Paris dans une séquence vidéo. Parallèlement à ce travail d'intégration, je me suis plus particulièrement intéressée au problème posé par la génération de séquences d'images de synthèse afin d'accélérer le processus d'incrustation de ces images dans des films vidéo. Une nouvelle technique d'interpolation d'images de synthèse est ainsi présentée (dans le cas où un observateur se déplace dans une scène statique). Cette méthode est générale (non limitée aux environnements parfaitement diffus) et ne requiert aucune approximation du mouvement de la caméra. De plus, cette méthode permet d'interpoler des images entrelacées comme le sont les images vidéo, dans le but d'un meilleur résultat visuel
The visual impact assessment of architectural projects in urban environments is usually based on manual drawings, paintings on photographs, scale models or computer-generated images. These techniques are either too expensive or not realistic enough. Strictly using computer images means requiring an accurate 3D model of the environment. Computing such a model takes a long time and the results lack of visual accuracy. Our technique of overlaying computer generated images onto photographs of the environment is considerably more effective and reliable. This method is a promising solution regarding computation time (no accurate 3D model of the environment) as weIl as visual realism (provided by the photograph itself). Such a solution requires nevertheless to solve lots of problems in order to get geometrical and photometrical coherence in the resulting image. To this end, image analysis and image synthesis methods have to be designed and developed. The method is generalized to produce an animated film, and can furthermore greatly increase the realism of the simulation. My Ph. D. Work was to test and integrate various image analysis and synthesis techniques for the composition of computer generated images with pictures or video film. This report explains the steps required for a realistic encrustation. For each of these steps, various techniques were tested in order to be able to choose the most suitable solutions according to the state of the most recent researches and to the applications we were dealing with (architectural and urban projects). The application of this work was the simulation of the Paris Bridges illumination projects. Concurrently to this work, I present a new method for the interpolation of computer images for the generation of a sequence of images. This method requires no approximation of the camera motion. Since video images are interlaced, sequences of computer images need to be interleaved too. The interpolation technique we propose is capable of doing this
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Génération de données de synthèse"

1

Statistique Canada. Division des comptes nationaux et de l'environnement. y Table ronde nationale sur l'environnement et l'économie (Canada). Groupe de travail sur le programme des services financiers., eds. Amélioration des données propres à l'état du terrain: Rapport de synthèse. Ottawa, Ont: Table ronde nationale sur l'environnement et l'économie, 1997.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Décentralisation et gouvernance locale (Program). Données de performance année fiscale 2002: Collectivités locales de la deuxième génération. Dakar, Sénégal: Décentralisation et gouvernance locale, 2002.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Fondation européenne pour l'amélioration des conditions de vie et de travail. Accidents du travail et maladies professionnelles: Sources de données, rapport de synthèse. S.l: s.n, 1986.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Féblot-Augustins, Jehanne. La circulation des matières premières lithiques au paléolithique: Synthèse des données, perspectives comportementales. Lille: A.N.R.T, Université de Lille III, 1994.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Marianne, Hagelstein, ed. Soft power et diplomatie culturelle: Le cas de Taiwan : synthèse des conférences données par le doyen Yang-Tzu-pao (Université catholique de Fu Jen). Louvain-la-Neuve: Academia L'Harmattan, 2014.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Dostie, Benoît. La formation parrainée par les employeurs au Canada: Synthèse de la documentation à l'aide de données extraites de l'Enquête sur le milieu de travail et les employés. Gatineau, Qué: Direction de la politique sur l'apprentissage, Ressources humaines et développement social Canada, 2007.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Resumes, Les Meilleurs. Résumé - Business Model, Nouvelle Génération de Alexander Osterwalder: Une Synthèse Simple et Rapide À Lire Qui Vous Expose les Points Essentiels de Ce Livre. Independently Published, 2019.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Immobilier, Edition Avenir. Carnet Agent Immobilier, Mandataire, Chasseur d'appartement, Professions de L'immobilier... .: Carnet de Fiches Contacts, Prospects - Compte-Rendu de Données Clientèle - Synthèse de Rdv. Independently Published, 2020.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Génération de données de synthèse"

1

Fauvelle, François-Xavier y Romain Mensan. "Récapitulation et synthèse des données archéologiques issues de la fouille de Nora". En Nora, ville islamique de l’Éthiopie médiévale (fin du XIIIe-début du XVIe siècle) : les fouilles de 2008, 195–99. Addis-Abeba: Centre français des études éthiopiennes, 2024. http://dx.doi.org/10.4000/12iz4.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Thiolas, Pierre. "Formes architecturales et fonctions de l’aditus maximus dans les théâtres du Proche‑Orient romain". En Les théâtres antiques et leurs entrées, 95–116. Lyon: MOM Éditions, 2024. http://dx.doi.org/10.4000/11qro.

Texto completo
Resumen
La grande majorité des théâtres antiques connus au Proche‑Orient sont de type romain et forment un corpus à part entière comptant à ce jour une soixantaine d’édifices en incluant les odéons et autres petits théâtrons mal identifiés, ainsi que les théâtres de rituels. Bien que l’étude d’un tel corpus reste à ce jour malaisée (absence de synthèse, diversité des édifices, publications disséminées et écrites dans différentes langues), il est possible de cerner, à partir des données accessibles, les principales caractéristiques architecturales et décoratives des aditus maximi de cette région, ainsi que d’en tracer les évolutions.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Brkojewitsch, Gaël y Pascal Neaud. "Aux confins de la Corse : l’établissement de Piantarella". En Villae maritimae del Mediterraneo occidentale, 159–74. Rome: Publications de l’École française de Rome, 2024. http://dx.doi.org/10.4000/120wu.

Texto completo
Resumen
La villa de Piantarella, sur la commune de Bonifacio, est le plus important témoignage romain recensé sur le littoral corse. Le monument se distingue par la régularité de son plan, les techniques de construction employées et l'utilisation de matières premières inhabituelles pour cette période en Corse. L'examen de plus d'un siècle de fouilles permet d'aborder la genèse des recherches sur ce monument et les questions qui ont motivé les chercheurs. L'examen de la documentation montre, d'une part, la densité des sondages, qui a eu pour effet de disperser les données, en particulier la céramique et l'instrumentum. L'analyse des lettres et des documents administratifs conservés au Service régional de l'archéologie révèle d'autre part un contexte politique tendu, qui a quelque peu affecté l'étude du site. Cette synthèse permet enfin de revenir sur les principales hypothèses interprétatives et les éléments qui permettent de reconnaître, dans l’ensemble des édifices, une villa maritima.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Cutuli, B. "Le cancer canalaire in situ en 2011. Synthèse des nouvelles données de la littérature et des recommandations INCa-SFSPM". En Cancer du sein, 609–33. Paris: Springer Paris, 2012. http://dx.doi.org/10.1007/978-2-8178-0245-9_40.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Meunier, Emmanuelle. "Synthèse des données minières". En L’exploitation minière dans le sud-ouest de la Gaule IVe s. a.C.-IVe s. p.C. Le district de l’Arize dans son contexte régional, 203–8. Ausonius Éditions, 2023. http://dx.doi.org/10.46608/dana10.9782356134974.17.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

"Synthèse". En Axer le secteur public sur les données : marche à suivre. OECD, 2020. http://dx.doi.org/10.1787/d332b434-fr.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Defleur, Alban y Evelyne Crégut‑Bonnoure. "Chapitre 5. Synthèse des données". En Le gisement paléolithique moyen de la grotte des Cèdres (Var). Éditions de la Maison des sciences de l’homme, 1995. http://dx.doi.org/10.4000/books.editionsmsh.40863.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

"Outils de génération automatique des modèles". En Conception de bases de données avec UML, 447–504. Presses de l'Université du Québec, 2007. http://dx.doi.org/10.2307/j.ctv18pgv5t.10.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

MEMBRÉ, Jeanne-Marie y Nabila HADDAD. "Identification des dangers biologiques". En Évaluation des risques microbiologiques, 17–38. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9084.ch1.

Texto completo
Resumen
L’identification des dangers est, et restera, une étape essentielle de la sécurité des aliments. Le travail d’identification des dangers nécessite de croiser différents types d’information : études académiques, synthèse bibliographiques, fiches de dangers préparés par les agences, données de surveillance sur les prévalences et concentrations, système d’alerte rapide, remontées des toxi-infections à l’échelle d’un pays, données de santé publique, etc.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

ESLAMI, Yasamin, Mario LEZOCHE y Philippe THOMAS. "Big Data Analytics et machine learning pour les systèmes industriels cyber-physiques". En Digitalisation et contrôle des systèmes industriels cyber-physiques, 175–95. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9085.ch9.

Texto completo
Resumen
Ce chapitre illustre, à travers les concepts de big data et de machine learning, comment il est possible d’exploiter l’immense masse de données qui peut être capitalisée au niveau de la couche cyber des ICPS. En effet, un ICPS est plus que la mise en réseau et l’exploitation des technologies de l’information. Les informations et les connaissances sont intégrées aux objets dans leur partie physique et sont connectées à leur partie cybernétique. En intégrant la perception, la communication, l’apprentissage, la génération de comportements et le raisonnement dans ces systèmes, une nouvelle génération de systèmes intelligents et autonomes peut alors être développée.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Génération de données de synthèse"

1

Devictor, Nicolas. "Quatrième génération : situation internationale". En Données nucléaires : avancées et défis à relever. Les Ulis, France: EDP Sciences, 2014. http://dx.doi.org/10.1051/jtsfen/2014donra02.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Vo Quang Costantini, S., S. Petit, A. Nassif, F. Ferre y B. Fournier. "Perspectives thérapeutiques du matrisome gingival dans la cicatrisation pathologique". En 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602013.

Texto completo
Resumen
Introduction : La muqueuse gingivale présente un potentiel de cicatrisation parmi les plus efficaces des tissus humains adultes. Le fibroblaste gingival joue un rôle primordial dans ces phénomènes de cicatrisation par ses interactions avec les éléments de la matrice extra-cellulaire (MEC). La peau, dont les capacités de cicatrisation sont moindres que la gencive, constitue un tissu de comparaison idéal pour étudier les phénomènes de cicatrisation. Ce travail propose de caractériser les différences entre gencive et peau à l’aide d’une cartographie des protéines de leur matrice extra-cellulaire respective et de leurs profils transcriptomiques. Matériels et méthodes : Les matrisomes et les profils d’expression génique (transcriptome) des fibroblastes gingivaux et dermiques ont été comparés après 14 jours de culture à confluence. Ces résultats ont été confirmés par l’analyse des bases de données publiques à l’aide d’outils bioinformatiques (GenePattern et GEO2R). Ils seront complétés par des modèles in vivo : deux prélèvements cutanés et gingivaux appariés chez trois souris saines (C57-Black 6) seront analysés comme précédemment. Résultats : Les résultats préliminaires montrent une surexpression des glycoprotéines dans la MEC des fibroblastes gingivaux. Ces dernières sont associées à la régulation de la synthèse collagéniques et élastiques. Ces résultats, confirmés par transcriptome, mettent en évidence une différence qualitative de la MEC synthétisée par ces deux types cellulaires. Discussion : Ces résultats montrent l’hétérogénéité du fibroblaste qui synthétise des MEC différentes en fonction de son origine tissulaire. Cette cartographie souligne la spécificité du tissu muqueux oral. Ces données préliminaires permettront d’identifier des protéines liées à la cicatrisation ad integrum de la muqueuse orale. Ces résultats pourraient ainsi orienter la fabrication de nouveaux supports en ingénierie tissulaire et présenter de nouvelles pistes thérapeutiques pour la cicatrisation cutanée pathologique
Los estilos APA, Harvard, Vancouver, ISO, etc.

Informes sobre el tema "Génération de données de synthèse"

1

Kamaté, Caroline. Le monde change, la sécurité industrielle aussi: Humain, numérique, nouvelles organisations: 10 points-clés à l’horizon 2040. Fondation pour une culture de sécurité industrielle, mayo de 2023. http://dx.doi.org/10.57071/240dpc.

Texto completo
Resumen
Démographie, avancées technologiques, mondialisation, désagrégation industrielle, complexité et interdépendance des systèmes… À l’horizon 2030-40, les mégatendances évolutives qui traversent notre monde, nos sociétés et donc le monde des activités industrielles à risque, obligent à revisiter l’approche de la sécurité. Quels impacts ces évolutions pourraient-elles avoir sur les directions HSE et, au-delà, sur les organisations ? Comment penser les nouveaux modes de production, les nouvelles organisations et les nouveaux profils professionnels requis en intégrant les évolutions prévisibles de la technologie, des générations de salariés, des attentes de la société? Pourquoi et comment l’industrie à risque doit-elle adapter sa vision et ses actions sécurité pour faire face aux challenges de demain? Ce «Cahier de la sécurité industrielle» est issu des travaux du groupe scientifique d’analyse stratégique «Opérateur du futur - Génération des travailleurs à venir 2030-2040» de la Foncsi et présente une synthèse de l’ensemble des résultats en 10 points.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Vultur, Mircea, Lucie Enel, Louis-Pierre Barette y Simon Viviers. Les travailleurs des plateformes numériques de transport de personnes et de livraison de repas au Québec : profil et motivations. CIRANO, junio de 2022. http://dx.doi.org/10.54932/xpzk8254.

Texto completo
Resumen
Cette étude vise deux objectifs : a) établir un profil des travailleurs qui utilisent une plateforme numérique de transport de personne et/ou de livraison de repas au Québec et b) d’analyser les motifs sous-jacents à leur engagement dans le travail sur une plateforme numérique. La structure des analyses se décline comme suit : dans une première partie, sur la base d’une revue de la littérature, nous présentons les caractéristiques des travailleurs des plateformes et divers types de motivations pour s’engager dans l’emploi sur les plateformes. Nous y exposons également le protocole méthodologique et les données à la source de nos analyses. Dans une deuxième partie, en utilisant des données statistiques secondaires et inédites, nous dressons un portrait des travailleurs engagés sur les plateformes de transport de personnes et de livraison de repas au Québec en faisant ressortir notamment les spécificités de la population des jeunes travailleurs. Dans une troisième partie, en analysant des données d’entrevues, nous exposons une typologie des motivations invoquées par les jeunes québécois de 18 à 34 ans pour travailler sur les plateformes Uber et Uber Eats. En conclusion, nous ferons une synthèse des constats significatifs issus des analyses.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Yousefi, Farzaneh y Marie-Pierre Gagnon. L’intelligence artificielle (IA) pour la promotion de la santé et la réduction de la maladie : synthèse des connaissances. Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, julio de 2024. http://dx.doi.org/10.61737/pjld3032.

Texto completo
Resumen
Ce rapport a pour objectif d’explorer l’utilisation de l’intelligence artificielle (IA) pour la promotion de la santé et à la réduction de la maladie dans les pays de l’OCDE. Une revue rapide et une analyse de l’environnement ont été réalisées pour identifier les données probantes récentes sur la manière dont l’IA est utilisée dans la promotion de la santé et la réduction de la maladie. Au total, 22 études ont été incluses dans la revue rapide, dont la plupart ont été menées aux États-Unis (n = 10), suivis par l’Australie (n = 3), le Japon (n = 3), le Royaume-Uni (n = 2) et l’Espagne (n = 2). Dans l’ensemble, des effets positifs ont été rapportés pour les résultats reliées au processus (p. ex. l’acceptabilité, l’engagement), les résultats cognitifs et comportementaux (p. ex., la confiance, le nombre de pas) et les résultats sur la santé (p. ex., la glycémie, la tension artérielle). De plus, plusieurs défis ont été identifiés liés à l’intégration de l’IA dans les interventions de promotion de la santé et de réduction de la maladie, ainsi que des opportunités et des recommandations pour des développements futurs. Ces résultats préliminaires offrent des informations essentielles sur la mise en œuvre efficace de l’IA qui pourront guider les décideurs politiques et les professionnels de la santé dans l’optimisation de l’utilisation des technologies de l’IA pour soutenir la promotion de la santé et la réduction de la maladie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Logan, C. E., H. A. J. Russell, A. K. Burt, A. Burt, R. P. M. Mulligan, D. R. Sharpe y A. F. Bajc. A three-dimensional surficial geology model of southern Ontario. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pudw24j7tx.

Texto completo
Resumen
Afin d'améliorer les connaissances géoscientifiques sur les eaux souterraines dans le sud de l'Ontario, un modèle régional tridimensionnel de la géologie des formations superficielles du sud de l'Ontario a été élaboré dans le cadre d'une collaboration entre la Commission Géologique de l'Ontario et la Commission Géologique du Canada. Couvrant une superficie d'environ 66 870 kilomètres carrés, le modèle est une synthèse des modèles géologiques existants, de la cartographie de la géologie de surface et des données de subsurface. Le modèle est une reclassification simplifiée en 9 couches de nombreuses formations sédimentaires superficielles locales cartographiées, dont l'épaisseur dépasse par endroits 200 m et dont le volume total est d'environ 2 455 kilomètres cubes. Le modèle intègre la cartographie de la géologie de surface à l'échelle 1:50 000 avec un modèle numérique d'élévation (MNE) topographique corrigé bathymétriquement de 90 m et 8 modèles 3D locaux existants. Les données archivées sur le sous-sol comprennent 10 237 forages géotechniques et stratigraphiques, 3 312 pics de levés géophysiques, 15 902 sites et sections de cartographie de terrain, 537 puits de surveillance et d'approvisionnement en eau et 282 995 enregistrements de puits d'eau. Correspondant approximativement aux couches aquifères et aquitards régionaux, les couches primaires du modèle sont (de la plus ancienne à la plus jeune) : Le substratum rocheux, l'aquifère de base, les sédiments inférieurs, le till régional, le remplissage de chenaux après le till régional, les sédiments fluvioglaciaires, les boues après le till régional, les sables glaciolacustres et les sédiments récents/organiques. La modélisation a été réalisée à l'aide d'une application de modélisation implicite (LeapFrog®) complétée par une approche de la classification des données basée sur les connaissances d'experts et une procédure de système expert basée sur des règles pour l'interprétation et la validation des données. Un cycle itératif de codage automatisé des données, de construction de modèles intermédiaires et de corrections manuelles des données, d'évaluations d'experts et de révisions a conduit au modèle 3D final. Ce modèle de géologie de surface complète le développement d'une série de modèles géologiques et hydrogéologiques régionaux en 3D pour le sud de l'Ontario.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, octubre de 2023. http://dx.doi.org/10.54932/ryht5065.

Texto completo
Resumen
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

_TCHIBOZO-KEKELE, Chanceline, Rodrigue Castro GBEDOMON, Laurenda TODOME y Fréjus Thoto. Inventaire et caractérisation des espaces verts dans les localités urbaines de la commune d’Abomey-Calavi au Sud-Bénin. ACED, julio de 2024. http://dx.doi.org/10.61647/aa62333.

Texto completo
Resumen
Cette étude se concentre sur l'évaluation des espaces verts (EV) dans la commune d'Abomey-Calavi. Les principaux objectifs étaient d’inventorier les espaces verts existants, de caractériser leur état actuel et de proposer des recommandations pour améliorer et préserver ces espaces. L'approche méthodologique s'est basée sur trois phases principales : consultation des autorités locales pour vérifier l'existence d'un répertoire des EV ; inventaire et caractérisation sur le terrain, incluant la collecte des coordonnées géographiques ; et enfin, une synthèse des connaissances pour analyser les données et formuler des recommandations. L'inventaire a permis d'identifier dix espaces verts d’une superficie moyenne de 8 000 m² dans les localités de Godomey, Akassato et Abomey-Calavi, représentant seulement 0,08 % de la superficie des trois arrondissements et offrant un ratio de 0,46 m² d’EV par habitant, très inférieur à la recommandation de 10 m² par habitant. Parmi les EV identifiés, neuf sont publics et accessibles, mais souvent mal aménagés et sujets à une dégradation rapide. Quarante-quatre espèces d’arbres ont été recensées, avec Khaya senegalensis, Mangifera indica et Cocos nucifera étant les plus fréquentes. De plus, trente réserves administratives dédiées aux EV ont été identifiées sur un total de 55 réserves disponibles. L'étude met en évidence la nécessité
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Hicks, Jacqueline, Alamoussa Dioma, Marina Apgar y Fatoumata Keita. Premiers résultats d'une évaluation de recherche-action systémique au Kangaba, Mali. Institute of Development Studies, abril de 2024. http://dx.doi.org/10.19088/ids.2024.019.

Texto completo
Resumen
Cet article présente les premiers résultats d’une recherche d’évaluation intégrée dans un projet communautaire de consolidation de la paix mis en œuvre au Mali. Appelé « Vestibule de la paix », le projet utilise la recherche-action systémique (SAR) pour aider dans un premier temps divers membres de communautés locales sélectionnées à recueillir et analyser des récits de vie en traçant les moteurs systémiques du conflit. Cette analyse causale motive ensuite la génération de solutions collectives à certains moteurs à travers des Groupes de Recherche-Action facilités (GRA). L’approche SAR, une approche alternative et participative à la consolidation de paix, vise à impliquer et à donner aux acteurs locaux les moyens de renforcer leur capacité d’agir alors qu’ils définissent et négocient des voies innovantes pour parvenir à la paix au quotidien. La conception globale de l’évaluation du projet Vestibule de la Paix utilise l’analyse des contributions comme principale approche d’évaluation, utilisant plusieurs méthodes pour explorer des « point chauds causals » spécifiques. Cet article présente les résultats d'études de cas approfondies de GRA dans le cadre de l'approche SAR dans la région de Kangaba au Mali. Il s'agit d'une méthode utilisée dans la conception de l'analyse de contribution qui vise à décrire le contexte, les mécanismes et la dynamique d'une sélection de GRA. Les sources de données proviennent de la documentation des processus GRA par les membres du GRA et l’équipe du projet, d'entretiens et de séances de réflexion avec les participants et les facilitateurs. Après avoir décrit les processus internes des groupes, l'article rassemble ensuite un récit de contribution pour partager des résultats comparatifs sur la façon dont les processus GRA ont fonctionné pour qui et dans quel contexte.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Dudoit, Alain. L’urgence du premier lien : la chaîne d’approvisionnement du Canada au point de rupture, un enjeu de sécurité nationale. CIRANO, junio de 2023. http://dx.doi.org/10.54932/zjzp6639.

Texto completo
Resumen
La création d’une chaîne d'approvisionnement intelligente est désormais une priorité de sécurité nationale urgente qui ne peut être réalisée sans la mobilisation conjointe différentes parties prenantes au Canada. Elle n’est cependant pas une finalité en soi : la réalisation d’un marché intérieur unique, compétitif, durable et axé sur les consommateurs devrait être le résultat ultime du chantier national nécessaire à la mise en œuvre collaborative des recommandations de trois rapports complémentaires de politiques publiques publiés en 2022 sur l’état de la chaine d’approvisionnement au Canada. Le défi de la chaîne d'approvisionnement est vaste, et il ne fera que se compliquer au fil du temps. Les gouvernements au Canada doivent agir ensemble dès maintenant, en conjonction avec les efforts de collaboration avec nos alliés et partenaires notamment les États-Unis et l’Union Européenne pour assurer la résilience les chaînes d'approvisionnement face à l’accélération des bouleversements, conflits géopolitiques, catastrophes naturelles actuels et anticipés. La position géostratégique du Québec représente un atout majeur et l’investit d’un rôle et d’une responsabilité critiques dans la mise en œuvre non seulement du Rapport final du groupe de travail national sur la chaine d’approvisionnement (« ACT »), mais aussi des recommandations contenues dans le rapport publié par le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et celles contenues dans le rapport du Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités publié à Ottawa en novembre 2022 , « Améliorer l’efficacité et la résilience des chaînes d’approvisionnement du Canada ». La démarche mobilisatrice vers un espace commun des données pour la chaine d’approvisionnement du Canada s’inspire de la vision à terme du corridor économique intelligent d’Avantage Saint-Laurent et repose sur l'expérience acquise grâce à différentes initiatives et programmes mis en œuvre au Canada, aux États-Unis et en Europe, et les intègre tel qu’approprié. Sa mise en œuvre dans une première étape dans le corridor commercial du Saint-Laurent Grands Lacs facilitera l’accès et le partage par la suite des données de l’ensemble de la chaine d’approvisionnement au Canada de manière fiable et sécurisée. Le développement conjoint accéléré d’un espace commun de données changera la donne non seulement dans la résolution des défis critiques de la chaine d’approvisionnement mais aussi dans l’impulsion qu’il générera dans la poursuite de priorités fondamentales au Canada dont celle de la transition énergétique. Ce rapport Bourgogne propose une synthèse en quatre volets : 1. Un survol d’un arrière-plan caractérisé par de nombreuses consultations, annonces de stratégies, mesures et des résultats mitigés. 2. Une analyse croisée des recommandations de trois rapports importants et complémentaires de politiques publiques au niveau fédéral ainsi que de la stratégie québécoise, l’Avantage Saint-Laurent. 3. Une analyse des enjeux fondamentaux de capacité de mobilisation, d’exécution et de sous-utilisation des données. 4. Quelques pistes de solutions opérationnelles pour passer au mode « Action -Collaboration et Transformation (ACT)
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Dudley, J. P. y S. V. Samsonov. Système de traitement automatisé du gouvernement canadien pour la détection des variations et l'analyse des déformations du sol à partir des données de radar à synthèse d'ouverture de RADARSAT-2 et de la mission de la Constellation RADARSAT : description et guide de l'utilisateur. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/329134.

Texto completo
Resumen
Remote sensing using Synthetic Aperture Radar (SAR) offers powerful methods for monitoring ground deformation from both natural and anthropogenic sources. Advanced analysis techniques such as Differential Interferometric Synthetic Aperture Radar (DInSAR), change detection, and Speckle Offset Tracking (SPO) provide sensitive measures of ground movement. With both the RADARSAT-2 and RADARSAT Constellation Mission (RCM) SAR satellites, Canada has access to a significant catalogue of SAR data. To make use of this data, the Canada Centre for Mapping and Earth Observation (CCMEO) has developed an automated system for generating standard and advanced deformation products from SAR data using both DInSAR and SPO methods. This document provides a user guide for this automated processing system.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Fontecave, Marc y Candel Sébastien. Quelles perspectives énergétiques pour la biomasse ? Académie des sciences, enero de 2024. http://dx.doi.org/10.62686/1.

Texto completo
Resumen
Le débat public concernant l’avenir du mix énergétique français à l’horizon 2050 a longtemps été réduit à la seule considération de son volet électrique, dans une opposition entre énergie nucléaire et énergies renouvelables (EnR). Pourtant, la part non-électrique de notre consommation énergétique constitue clairement aujourd’hui un des principaux défis de la transition climatique et énergétique. Actuellement issue du pétrole, du gaz et du charbon, elle constitue l’angle mort des divers scénarios énergétiques disponibles, alors qu’elle restera encore indispensable, notamment dans le secteur de la mobilité et de la production de chaleur. Le Comité de prospective en énergie (CPE) de l’Académie des sciences examine ici les ressources énergétiques et carbonées pouvant être tirées de la biomasse, qui présente des atouts certains en permettant le stockage de l’énergie sous forme de biogaz ou de biocarburants, et les perspectives raisonnables offertes par celles-ci dans le mix énergétique national à l’horizon 2050. Le présent rapport se focalise sur les aspects scientifiques et technologiques, sans occulter certaines considérations environnementales, économiques, sociales, et de souveraineté nationale, abordés à la lumière de la littérature disponible et de l’audition d’experts des divers domaines considérés. Après avoir défini la notion de biomasse dans sa diversité, le rapport décrit les différentes bioénergies possibles et leurs limites. Les utilisations actuelles de la biomasse en France sont évaluées et comparées aux perspectives envisagées à l’horizon 2050 au regard du potentiel réellement mobilisable, pour lequel il existe une grande variation dans les estimations proposées, et des technologies nécessaires à sa transformation, qui restent, pour la plupart, coûteuses et de faible maturité. Ainsi, cette analyse montre notamment que le besoin d’énergie non-électrique, tel qu’il est défini dans le scénario de référence fourni par Réseau de transport d’électricité (RTE), sera difficile – pour ne pas dire impossible - à atteindre avec la seule biomasse produite en France : le bouclage énergétique 2050 passera nécessairement par un maintien d’importations de gaz naturel et par de nouvelles importations de biomasse et/ou de bioénergie introduisant des dépendances nouvelles et exportant les risques associés à leur utilisation massive. Le rapport rappelle que la bioénergie reste l’énergie la moins favorable en termes d’empreinte spatiale et que la biomasse a, sur toute la chaîne des valeurs, un faible retour énergétique. Sa plus grande mobilisation, qui ne devra pas se faire au détriment de la sécurité alimentaire humaine et animale, ni au détriment des éco-services rendus par la biosphère, aura des impacts environnementaux certains qu’il faudrait estimer avec rigueur. Enfin, le remplacement de la pétrochimie industrielle par une nouvelle « carbochimie biosourcée » va nécessiter des efforts considérables d’adaptation des procédés et de recherche et développement dans le domaine de la catalyse, de la chimie de synthèse et des biotechnologies. Ces conclusions conduisent le CPE à formuler des recommandations concernant : 1.La nécessaire amélioration de la concertation entre les divers organismes et agences pour aboutir à une estimation rigoureuse et convergente des ressources potentielles, 2.La réalisation de bilans carbone des diverses filières et d’analyses en termes de retour énergétique des investissements envisagés, pour s’assurer de la soutenabilité et du gain en carbone qui ne sont pas acquis pour le moment, 3.Le soutien au déploiement de la recherche et développement des filières de biocarburants de seconde génération pour accroitre leur maturité industrielle, 4.La poursuite du développement d’une chimie organique de synthèse biosourcée, 5.La priorité à établir dans l’utilisation de la biomasse pour les usages qui ne pourront être décarbonés par l’électricité, passant par une politique publique permettant de résoudre les conflits d’usages, 6.La nécessité de concertation des politiques énergétique et agroalimentaire de notre pays.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía