Academic literature on the topic 'Génération de données synthétiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Génération de données synthétiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Génération de données synthétiques"

1

Corriger, J., and J. Goret. "Développement et évaluation d’approches algorithmiques et par GAN pour la génération de données synthétiques en Allergologie." Revue Française d'Allergologie 64 (April 2024): 103893. http://dx.doi.org/10.1016/j.reval.2024.103893.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Chahnazarian, Anouch. "Hausse récente de la fécondité en Haïti : un nouvel engouement pour la vie en union?" Population Vol. 47, no. 3 (March 1, 1992): 583–616. http://dx.doi.org/10.3917/popu.p1992.47n3.0616.

Full text
Abstract:
Résumé Chahnazarian (Anouch).- Hausse récente de la fécondité en Haïti : un nouvel engagement pour la vie en union ? Trois enquêtes démographiques rétrospectives ont été réalisées à Haïti en 1977, 1983 et 1987. Elles font apparaître une hausse de la fécondité, tant sur les indices synthétiques des périodes précédant les enquêtes que sur les parités moyennes (nombre total d'enfants déjà nés suivant l'âge des femmes enquêtées). La validité du résultat obtenu est appréciée en comparant les données des enquêtes à celles d'autres sources (autres enquêtes, recensements), en étudiant la cohérence interne de chaque enquête (comparaison des indices synthétiques de fécondité du moment et des descendances des générations) et en rapprochant les résultats des trois enquêtes (calcul d'indices du moment par différence entre les parités atteintes dans deux enquêtes ou reconstitution des parités à une même date à partir de deux enquêtes). Le facteur essentiel d'incertitude semble lié à l'émigration vers les États-Unis des femmes les moins fécondes. La plus grande précocité de la vie en union et la prédominance accrue des formes conjugales impliquant la cohabitation des partenaires sont les facteurs essentiels de la hausse de la fécondité. Le phénomène touche davantage les femmes les moins instruites, sans doute parce que ce sont elles qui ont le plus besoin de la sécurité financière qu'offre la vie en couple dans une période économique particulièrement difficile pour Haïti.
APA, Harvard, Vancouver, ISO, and other styles
3

Bogardii, J. J., and L. Duckstein. "Evénements de période sèche en pays semi-aride." Revue des sciences de l'eau 6, no. 1 (April 12, 2005): 23–46. http://dx.doi.org/10.7202/705164ar.

Full text
Abstract:
On analyse par événement les périodes sèches ou longs événements secs se produisant au cours d'une saison humide en pays semi-aride. Une période sèche se définit comme une série de jours avec pluies quotidiennes inférieures à un seuil donné. Le cas d'espèce de la région de Dodoma en Tanzanie, où l'on observe surtout des précipitations de type convectif illustre la méthodologie. Une analyse conventionnelle des périodes sèches, qui ne fournit pas de relation entre la fréquence et la durée de ces périodes, semble cependant indiquer que les périodes sèches se produisent de façon aléatoire pendant la saison pluvieuse qui est elle-même de longueur aléatoire. L'analyse par événement comprend le nombre d'événements par saison, quisuit approximativement une loi de Poisson, la durée des événements secs, qui est supposée suivre une loi binomiale négative et la durée des événements pluvieux qui est supposée suivre une loi géométrique. On utilise la loi de Pearson III pour estimer les événements secs saisonniers de durées maxima et on compare les résultats obtenus avec ceux de l'analyse par événement, les écarts observés étant expliqués par les différences de conception existant entre ces deux méthodes. La distribution spatiale des événements secs est également analysée, on trouve qu'une forte majorité des événements secs est simultanée sur au moins deux stations, et que près de la moitié des événements secs de durée modérée est simultanée sur trois stations. L'analyse par événement permet de calibrer les modèles de précipitation avec peu de données et de procéder à la génération d'événements synthétiques par simulation.
APA, Harvard, Vancouver, ISO, and other styles
4

RICARD, F. H., G. MARCHE, and E. LE BIHAN-DUVAL. "Essai d’amélioration par sélection de la qualité de carcasse du poulet de chair." INRAE Productions Animales 7, no. 4 (September 27, 1994): 253–61. http://dx.doi.org/10.20870/productions-animales.1994.7.4.4173.

Full text
Abstract:
Une expérience d’amélioration de la qualité des carcasses par les techniques classiques de la sélection a été réalisée pendant 8 générations sur une lignée synthétique de poulets de chair à croissance rapide. La lignée de départ a été obtenue par croisements entre plusieurs souches commerciales et expérimentales et a ensuite été maintenue sans sélection orientée comme lignée "témoin". La lignée "qualité" était sélectionnée pour donner des poulets ayant un faible état d’engraissement et un fort développement des muscles perctoraux tout en étant aussi lourds que possible. En raison des corrélations existant entre les caractères sélectionnés, la diminution de l’engraissement a été plus longue à obtenir que l’augmentation du rendement en muscles pectoraux. Mais les résultats sont encourageants : à la huitième génération de sélection, les poulets de la lignée "qualité" étaient environ 8% plus lourds que ceux de la lignée "témoin", les dépôts gras abdominaux étaient réduits de 21% et l’ensemble des muscles pectoraux était augmenté de 11%. Comparés aux témoins, les poulets de la lignée "qualité" présentaient une meilleure conformation (angle de poitrine), un gésier un peu moins développé et une plus forte proportion des parties nobles de la carcasse (muscles grand et petits pectoraux, pilons, ailes). Les corrélations entre éléments de la carcasse, relativement homogènes à la huitième génération, ont montré que la sélection n’avait pas modifié sensiblement la structure anatomique de la carcasse.
APA, Harvard, Vancouver, ISO, and other styles
5

Llamas, J., R. Fernandez, and A. Calvache. "Génération de séries synthétiques de débit." Canadian Journal of Civil Engineering 14, no. 6 (December 1, 1987): 795–806. http://dx.doi.org/10.1139/l87-118.

Full text
Abstract:
The main objective of this research is to find a simple and precise methodology for the stochastic generation of flow series having statistical behaviour similar to the registered or reconstituted historical series. The common statistical parameters are the mean, the variance, the auto- and cross-correlations, and, under particular conditions, the skewness coefficient. A procedure to disaggregate annual series to lower levels (monthly or seasonal) is also presented. Finally, the article describes the general computer model utilized for the synthetic generation. Key words: synthetic generation, flow series, disaggregation, computer model.
APA, Harvard, Vancouver, ISO, and other styles
6

ESSALMANI, R., S. SOULIER, N. BESNARD, M. HUDRISIER, J. COSTA DA SILVA, and J. L. VILOTTE. "Données de base sur la transgenèse." INRAE Productions Animales 13, HS (December 22, 2000): 181–86. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3835.

Full text
Abstract:
La transgenèse permet d’introduire dans le génome d’un animal un fragment d’ADN qui sera ensuite transmis de génération en génération. Elle utilise différentes approches méthodologiques. Certaines, encore limitées à peu d’espèces, permettent des modifications très fines du génome. La transgenèse, associée au développement de la biologie moléculaire, offre des applications multiples tant dans la recherche fondamentale qu’appliquée. Elle est de fait devenue un outil indispensable pour l’analyse de la régulation de l’expression des gènes et la compréhension de leur fonction.
APA, Harvard, Vancouver, ISO, and other styles
7

Fleury, Charles. "La génération X au Québec : une génération sacrifiée ?" Recherche 49, no. 3 (February 5, 2009): 475–99. http://dx.doi.org/10.7202/019877ar.

Full text
Abstract:
Cet article examine de manière comparative le parcours professionnel de diverses générations québécoises à partir des données transversales recueillies par Statistique Canada depuis 1976. Il cherche plus spécifiquement à savoir jusqu’à quel point la génération X constitue une génération sacrifiée, comme l’ont laissé entendre nombre d’observateurs au cours des années 1980 et 1990. L’analyse montre que, si toutes les générations ont été touchées d’une manière ou d’une autre par les mutations économiques des dernières décennies, la génération X semble avoir, plus que toute autre cohorte, cumulé de multiples désavantages sur le marché du travail. Non seulement a-t-elle connu d’importantes difficultés d’insertion professionnelle, mais elle a aussi été la pionnière d’un nouveau modèle de travail ainsi que d’un nouveau cycle de vie professionnelle.
APA, Harvard, Vancouver, ISO, and other styles
8

Blackburn, Heidi. "La prochaine génération d’employés." Documentation et bibliothèques 63, no. 1 (February 28, 2017): 48–60. http://dx.doi.org/10.7202/1039073ar.

Full text
Abstract:
Une étude de cas fondée sur les données se penche sur les questions suivantes : 1) quels sont les facteurs sociaux, culturels, économiques et politiques qui motivent les hommes (18-30 ans) à devenir bibliothécaires professionnels aux États-Unis ; 2) dans quelle mesure la technologie a-t-elle motivé les hommes (18-30 ans) à devenir bibliothécaires professionnels et ; 3) quels sont les stéréotypes professionnels auxquels ils sont confrontés.
APA, Harvard, Vancouver, ISO, and other styles
9

CHATELLIER, Vincent, Christophe PERROT, Emmanuel BEGUIN, Marc MORAINE, and Patrick VEYSSET. "Compétitivité et emplois à la production dans les secteurs bovins français." INRAE Productions Animales 33, no. 4 (April 6, 2021): 261–82. http://dx.doi.org/10.20870/productions-animales.2020.33.4.4609.

Full text
Abstract:
Dans un contexte caractérisé par l’existence de difficultés d’ordre économique, social et environnemental, cette communication a pour ambition de présenter, de façon synthétique, un état des lieux chiffré des secteurs bovins (lait et viande) français. Elle s’appuie pour ce faire sur l’utilisation de différentes sources d’informations disponibles, dont les données des douanes, du Réseau d’Information Comptable Agricole et de la Mutualité Sociale Agricole. Les deux premières parties abordent la question de la dynamique des marchés en produits laitiers et en viande bovine (production, consommation et échanges) en distinguant successivement le marché extérieur (compétitivité externe au cours de la période 2000-2019) puis le marché intérieur (adéquation entre l’offre et la demande, utilisateurs finaux des produits) ; une analyse portant sur la différenciation de l’offre permet également d’aborder la place des différents signes de qualité et de nouvelles formes de démarcations commerciales s’appuyant sur une référence au territoire. Les deux dernières parties traitent de l’évolution de l’organisation de la production, en s’intéressant d’abord à la compétitivité des exploitations françaises sur longue période (1990-2018), puis aux emplois dans les exploitations (renouvellement des générations ou plutôt des actifs, transformation des formes d’installation).
APA, Harvard, Vancouver, ISO, and other styles
10

Street, María Constanza, and Benoît Laplante. "Pas plus élevée, mais après la migration ! Fécondité, immigration et calendrier de constitution de la famille." Articles 43, no. 1 (June 4, 2014): 35–68. http://dx.doi.org/10.7202/1025490ar.

Full text
Abstract:
L’indicateur souvent utilisé pour mesurer la fécondité des immigrantes et pour comparer son niveau à celui des femmes natives est l’indice synthétique de fécondité. Cependant, des recherches ont montré que cet indice tend à surestimer les écarts entre les immigrantes et les natives, car il attribue un niveau de fécondité qui reste marqué par l’âge des femmes au moment de l’arrivée. Pour contourner ce problème, il est nécessaire d’avoir recours à des approches longitudinales qui considèrent la partie de la vie féconde qui précède la migration. Au Québec, il est possible d’estimer la fécondité des immigrantes à l’aide de données de registres administratifs qui suivent des cohortes au fil du temps. Dans cet article, nous présentons la méthodologie employée pour estimer le nombre d’enfants mis au monde avant et après la migration et nous comparons la fécondité des immigrantes selon la descendance des générations. Les résultats montrent que la fécondité des femmes immigrantes au Québec est influencée par le calendrier de la migration. Quant aux estimations de la descendance à divers âges, le nombre moyen d’enfants varie selon la région de provenance, mais il ne dépasse pas les deux enfants par femme vers la fin de leur vie féconde.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Génération de données synthétiques"

1

Kieu, Van Cuong. "Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Full text
Abstract:
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training
APA, Harvard, Vancouver, ISO, and other styles
2

Desbois-Bédard, Laurence. "Génération de données synthétiques pour des variables continues : étude de différentes méthodes utilisant les copules." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27748.

Full text
Abstract:
L’intérêt des agences statistiques à permettre l’accès aux microdonnées d’enquête est grandissant. À cette fin, plusieurs méthodes permettant de publier les microdonnées tout en protégeant la confidentialité des répondants ont été proposées ; ce mémoire se penche sur l’une d’entre-elles : la génération de données synthétiques. Deux approches sont présentées, GADP et C-GADP, et une nouvelle est proposée. La méthode GADP suppose que les variables des données originales et synthétiques sont de loi normale, alors que la méthode C-GADP suppose qu’elles sont jointes par une copule normale. La nouvelle méthode est basée sur les modèles de copules en vigne. Ces modèles sont employés dans l’espoir de mieux modéliser les liens entre les variables. Les trois approches sont évaluées selon les concepts d’utilité et de risque. L’utilité de données confidentielles s’apprécie selon la similitude qu’elles ont avec les données originales et le risque, par la possibilité d’une violation de la confidentialité des répondants. Le risque peut survenir par identification ou par inférence. Seul le risque d’inférence est possible dans le cadre de ce mémoire. Précisément, l’utilité est évaluée avec quelques mesures faites à partir d’analyses spécifiques et une mesure globale basée sur les scores de propension calculés avec une régression logistique. Quant au risque, il est évalué avec une prévision basée sur la distance.
Statistical agencies face a growing demand for releasing microdata to the public. To this end, many techniques have been proposed for publishing microdata while providing confidentiality : synthetic data generation in particular. This thesis focuses on such technique by presenting two existing methods, GAPD and C-GADP, as well as suggesting one based on vine copula models. GADP assumes that the variables of original and synthetic data are normally distributed, while C-GADP assumes that they have a normal copula distribution. Vine copula models are proposed due to their flexibility. These three methods are then assessed according to utility and risk. Data utility depends on maintaining certain similarities between the original and confidential data, while risk can be observed in two types : reidentification and inference. This work will focus on the utility examined with different analysis-specific measures, a global measure based on propensity scores and the risk of inference evaluated with a distance-based prediction.
APA, Harvard, Vancouver, ISO, and other styles
3

Uzan, Kathy. "Les vaccins synthétiques : données récentes." Paris 5, 1989. http://www.theses.fr/1989PA05P188.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Barrère, Killian. "Architectures de Transformer légères pour la reconnaissance de textes manuscrits anciens." Electronic Thesis or Diss., Rennes, INSA, 2023. http://www.theses.fr/2023ISAR0017.

Full text
Abstract:
En reconnaissance d’écriture manuscrite, les architectures Transformer permettent de faibles taux d’erreur, mais sont difficiles à entraîner avec le peu de données annotées disponibles. Dans ce manuscrit, nous proposons des architectures Transformer légères adaptées aux données limitées. Nous introduisons une architecture rapide basée sur un encodeur Transformer, et traitant jusqu’à 60 pages par seconde. Nous proposons aussi des architectures utilisant un décodeur Transformer pour inclure l’apprentissage de la langue dans la reconnaissance des caractères. Pour entraîner efficacement nos architectures, nous proposons des algorithmes de génération de données synthétiques adaptées au style visuel des documents modernes et anciens. Nous proposons également des stratégies pour l’apprentissage avec peu de données spécifiques, et la réduction des erreurs de prédiction. Nos architectures, combinées à l’utilisation de données synthétiques et de ces stratégies, atteignent des taux d’erreur compétitifs sur des lignes de texte de documents modernes. Sur des documents anciens, elles parviennent à s’entraîner avec des nombres limités de données annotées, et surpassent les approches de l’état de l’art. En particulier, 500 lignes annotées sont suffisantes pour obtenir des taux d’erreur caractères proches de 5%
Transformer architectures deliver low error rates but are challenging to train due to limited annotated data in handwritten text recognition. We propose lightweight Transformer architectures to adapt to the limited amounts of annotated handwritten text available. We introduce a fast Transformer architecture with an encoder, processing up to 60 pages per second. We also present architectures using a Transformer decoder to incorporate language modeling into character recognition. To effectively train our architectures, we offer algorithms for generating synthetic data adapted to the visual style of modern and historical documents. Finally, we propose strategies for learning with limited data and reducing prediction errors. Our architectures, combined with synthetic data and these strategies, achieve competitive error rates on lines of text from modern documents. For historical documents, they train effectively with minimal annotated data, surpassing state-ofthe- art approaches. Remarkably, just 500 annotated lines are sufficient for character error rates close to 5%
APA, Harvard, Vancouver, ISO, and other styles
5

Ruiz, Paredes Javier Antonio. "Génération d'accélérogrammes synthétiques large-bande par modélisation cinématique de la rupture sismique." Paris, Institut de physique du globe, 2007. http://www.theses.fr/2007GLOB0009.

Full text
Abstract:
Afin de rendre les modélisations cinématiques de la rupture sismique plus réalistes au regard des modèles dynamiques, des contraintes physiques ont été introduites. Pour améliorer la modélisation de la vitesse de glissement sur le plan de faille, une évolution du modèle k-2 estproposée qui consiste à décomposer le glissement en sous-événements au travers d'une analyse par bandes de k. Ce modèle permet d'obtenir des vitesses de glissement proches d'une fonctionde type Kostrov, en préservant un spectre rayonné en w2 avec des amplitudes proportionnelles au coefficient de directivité Cd à hautes fréquences. Pour mieux contrôler les effets de directivité, un modèle cinématique basé sur une description de sources composites et sur une loi d'échellerégissant l'extension de la zone de nucléation des sous-événements est proposé. Ce modèle permet de réduire le coefficient de directivité apparent à une fraction de Cd, et de reproduirel'écart-type des relations d'atténuation. Afin de rendre les modèles de sources sismiques plus réalistes, une vitesse de rupture variable compatible avec la physique de la rupture doit être introduite. L'approche suivie qui relie analytiquement l'énergie de fracturation, le glissement et la vitesse de rupture, se traduit par une augmentation des pics d'accélérations modélisés à distance proche. Enfin, pour mieux rendre compte de la complexité de l'interaction du champ d'ondes avec le milieu géologique, une approche semi-empirique combinant le modèle de sources composites et des fonctions de Green Empiriques est proposée. Les simulations obtenues pour le séisme de Yamaguchi (Mw 5,9) reproduisent les principales caractéristiques du mouvement du sol
In order to make the broadband kinematic rupture modeling more realistic with respect to dynamic modeling, physical constraints are added to the rupture parameters. To improve the slip velocity function (SVF) modeling, an evolution of the k-2 source model is proposed, which consists to decompose the slip as a sum of sub-events by band of k. This model yields to SVFclose to the solution proposed by Kostrov for a crack, while preserving the spectral characteristics of the radiated wavefield, i. E. A w2 model with spectral amplitudes at high frequency scaled to the coefficient of directivity Cd. To better control the directivity effects, acomposite source description is combined with a scaling law defining the extent of the nucleation area for each sub-event. The resulting model allows to reduce the apparent coefficient of directivity to a fraction of Cd, as well as to reproduce the standard deviation of the new empirical attenuation relationships proposed for Japan. To make source models more realistic, avariable rupture velocity in agreement with the physics of the rupture must be considered. The followed approach that is based on an analytical relation between the fracture energy, the slip and the rupture velocity, leads to higher values of the peak ground acceleration in the vicinity ofthe fault. Finally, to better account for the interaction of the wavefield with the geological medium, a semi-empirical methodology is developed combining a composite source model with empirical Green functions, and is applied to the Yamaguchi, Mw 5. 9 earthquake. The modeled synthetics reproduce satisfactorily well the observed main characteristics of ground motions
APA, Harvard, Vancouver, ISO, and other styles
6

Pazat, Jean-Louis. "Génération de code réparti par distribution de données." Habilitation à diriger des recherches, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00170867.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Baez, miranda Belen. "Génération de récits à partir de données ambiantes." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Full text
Abstract:
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
APA, Harvard, Vancouver, ISO, and other styles
8

Morisse, Pierre. "Correction de données de séquençage de troisième génération." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR043/document.

Full text
Abstract:
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain
The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome
APA, Harvard, Vancouver, ISO, and other styles
9

Fontin, Mickaël. "Contribution à la génération de séries synthétiques de pluies, de débits et de températures." Toulouse, INPT, 1987. http://www.theses.fr/1987INPT117H.

Full text
Abstract:
Les processus stochastiques se revelent un moyen simple et adequat pour modeliser les series hydrometeorologiques dont le caractere complexe et aleatoire rend difficile une approche deterministe. Apres un examen des principaux processus stochastiques utilises en hydrometeorologie, sont presentees des methodes capables de modeliser des series presentant un caractere saisonnier marque. Des applications sont faites sur le regime pluviometrique du climat sahelien a saisons tres contrastees et sur des series de temperatures et de debits du sud de la france. Les pluies journalieres sont modelisees a l'aide de chaines de markov a parametres variables au cours de l'annee ; quant aux series de temperatures et de debits journaliers, pour tenir compte de leur instationnarite, elles sont decomposees en une composante cyclique, par lissage a l'aide de fonctions trigonometriques et en une composante fluctuante stationnaire. Ces composantes sont simulees separement en tenant compte des contraintes de conservation de la fonction de repartition des quantites annuelles et du respect des correlations naturelles. Les exemples traites montrent que les processus stochastiques conviennent pour la modelisation des series hydrometeorologiques
APA, Harvard, Vancouver, ISO, and other styles
10

Khalili, Malika. "Nouvelle approche de génération multi-site des données climatiques." Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/580/1/KHALILI_Malika.pdf.

Full text
Abstract:
Les générateurs de climat sont des outils statistiques permettant de générer de longues séries temporelles de variables climatiques et de simuler le climat futur en tenant compte des scénarios de changements climatiques. La dépendance spatiale est une propriété primordiale des données climatiques négligée par les générateurs de climat uni-site. La présente thèse a permis de développer une approche de génération multi-site des données climatiques basée sur le concept d'autocorrélation spatiale. L'approche a permis de reproduire simultanément dans les séries générées de données climatiques, les autocorrélations spatiales observées sur l'ensemble des stations météorologiques et les corrélations observées entre les couples de stations. L'approche est appliquée avec succès au bassin versant de la rivière Péribonca situé dans la province du Québec, Canada Une étude hydrologique a permis de confirmer la performance du générateur multi-site développé et sa capacité à évaluer avec plus de précision et de fiabilité les impacts des changements climatiques.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Génération de données synthétiques"

1

(Editor), Harald Ganzinger, and Neil D. Jones (Editor), eds. Programs as Data Objects: Proceedings of a Workshop, Copenhagen, Denmark, October 17 - 19, 1985 (Lecture Notes in Computer Science). Springer, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Génération de données synthétiques"

1

"Outils de génération automatique des modèles." In Conception de bases de données avec UML, 447–504. Presses de l'Université du Québec, 2007. http://dx.doi.org/10.2307/j.ctv18pgv5t.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

ESLAMI, Yasamin, Mario LEZOCHE, and Philippe THOMAS. "Big Data Analytics et machine learning pour les systèmes industriels cyber-physiques." In Digitalisation et contrôle des systèmes industriels cyber-physiques, 175–95. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9085.ch9.

Full text
Abstract:
Ce chapitre illustre, à travers les concepts de big data et de machine learning, comment il est possible d’exploiter l’immense masse de données qui peut être capitalisée au niveau de la couche cyber des ICPS. En effet, un ICPS est plus que la mise en réseau et l’exploitation des technologies de l’information. Les informations et les connaissances sont intégrées aux objets dans leur partie physique et sont connectées à leur partie cybernétique. En intégrant la perception, la communication, l’apprentissage, la génération de comportements et le raisonnement dans ces systèmes, une nouvelle génération de systèmes intelligents et autonomes peut alors être développée.
APA, Harvard, Vancouver, ISO, and other styles
3

Mouchabac, Stéphane. "Antipsychotiques de seconde génération dans la dépression résistante : données cliniques." In Dépressions Difficiles, Dépressions Résistantes, 17–23. Elsevier, 2013. http://dx.doi.org/10.1016/b978-2-294-73727-5.00003-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

VOLK, Rebekka. "Modéliser le bâti immobilier existant : planification et gestion de la déconstruction." In Le BIM, nouvel art de construire, 157–79. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9110.ch7.

Full text
Abstract:
Description de la situation actuelle de l'utilisation du BIM à la fin du cycle de vie d'un bâtiment. Présentation de l’état de l'art de la génération de données des bâtiments existants. Passage en revue des approches et des développements actuels concernant l'utilisation du BIM dans la déconstruction et mise en perspective des futures orientations de la R&D.
APA, Harvard, Vancouver, ISO, and other styles
5

KARLIS, Dimitris, and Katerina ORFANOGIANNAKI. "Modèles de régression de Markov pour les séries chronologiques de comptage des séismes." In Méthodes et modèles statistiques pour la sismogenèse, 165–80. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9037.ch6.

Full text
Abstract:
Il est à souligner l’importance des applications de la modélisation stochastique en sismologie, car elles aident considérablement à comprendre, modéliser et tester la dynamique sous-jacente de la génération des tremblements de terre et des prédictions potentielles. L’éventail de ces modèles est vaste et dépend du champ et des caractéristiques qu’ils essaient de modéliser, ainsi que des différents types de données utilisées.
APA, Harvard, Vancouver, ISO, and other styles
6

"Les données de l’enquête sont représentatives de la diversité des engagements et des porteurs d’engagement." In Rapport de la Génération Égalité sur la redevabilité 2022, 14. United Nations, 2023. http://dx.doi.org/10.18356/9789210021906c007.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Génération de données synthétiques"

1

Devictor, Nicolas. "Quatrième génération : situation internationale." In Données nucléaires : avancées et défis à relever. Les Ulis, France: EDP Sciences, 2014. http://dx.doi.org/10.1051/jtsfen/2014donra02.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

RIBEIRO DOS SANTOS, Daniel, Anne JULIEN-VERGONJANNE, and Johann BOUCLÉ. "Cellules Solaires pour les Télécommunications et la Récupération d’Énergie." In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.661.

Full text
Abstract:
Dans un monde technologique en pleine mutation, le nombre d’appareils connectés explose et le domaine des télécommunications doit suivre le rythme en offrant une connectivité toujours plus robuste et fiable, tout en assurant une emprunte énergétique la plus faible possible. Les nouvelles générations de technologies sans fils mobiles (la 5G aujourd’hui et la 6G demain) cherchent ainsi à exploiter de nouvelles bandes de fréquences pour éviter la saturation du spectre radiofréquence (RF) actuel. Dans ce contexte, la communication sans fil par voie optique (Optical Wireless Communication - OWC) est une solution notamment pour les environnements intérieurs. D’autre part, l’utilisation de cellules et modules photovoltaïques pour la récupération d’énergie ambiante est étudiée actuellement pour la réception de données par voie optique. Ce concept récent associant des expertises interdisciplinaires dans les domaines de l’énergie et des télécommunications permet d’envisager l’alimentation en énergie des dispositifs communicants de l’internet des objets (IoT), tout en leur apportant une fonctionnalité de réception OWC. Ce travail décrit ainsi les principes de base de la technologie OWC et propose un état de l’art synthétique sur l’utilisation de photorécepteurs photovoltaïques pour cet usage innovant.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Génération de données synthétiques"

1

Hicks, Jacqueline, Alamoussa Dioma, Marina Apgar, and Fatoumata Keita. Premiers résultats d'une évaluation de recherche-action systémique au Kangaba, Mali. Institute of Development Studies, April 2024. http://dx.doi.org/10.19088/ids.2024.019.

Full text
Abstract:
Cet article présente les premiers résultats d’une recherche d’évaluation intégrée dans un projet communautaire de consolidation de la paix mis en œuvre au Mali. Appelé « Vestibule de la paix », le projet utilise la recherche-action systémique (SAR) pour aider dans un premier temps divers membres de communautés locales sélectionnées à recueillir et analyser des récits de vie en traçant les moteurs systémiques du conflit. Cette analyse causale motive ensuite la génération de solutions collectives à certains moteurs à travers des Groupes de Recherche-Action facilités (GRA). L’approche SAR, une approche alternative et participative à la consolidation de paix, vise à impliquer et à donner aux acteurs locaux les moyens de renforcer leur capacité d’agir alors qu’ils définissent et négocient des voies innovantes pour parvenir à la paix au quotidien. La conception globale de l’évaluation du projet Vestibule de la Paix utilise l’analyse des contributions comme principale approche d’évaluation, utilisant plusieurs méthodes pour explorer des « point chauds causals » spécifiques. Cet article présente les résultats d'études de cas approfondies de GRA dans le cadre de l'approche SAR dans la région de Kangaba au Mali. Il s'agit d'une méthode utilisée dans la conception de l'analyse de contribution qui vise à décrire le contexte, les mécanismes et la dynamique d'une sélection de GRA. Les sources de données proviennent de la documentation des processus GRA par les membres du GRA et l’équipe du projet, d'entretiens et de séances de réflexion avec les participants et les facilitateurs. Après avoir décrit les processus internes des groupes, l'article rassemble ensuite un récit de contribution pour partager des résultats comparatifs sur la façon dont les processus GRA ont fonctionné pour qui et dans quel contexte.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography