Auswahl der wissenschaftlichen Literatur zum Thema „Augmentation des données par interpolation“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Augmentation des données par interpolation" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Augmentation des données par interpolation"

1

Hulin, Anne-Sophie. „La gouvernance des données en droit civil québécois : comment (re)concilier protection et exploitation des données personnelles ?“ Revue internationale de droit économique XXXVI, Nr. 3 (21.04.2023): 39–61. http://dx.doi.org/10.3917/ride.363.0039.

Der volle Inhalt der Quelle
Annotation:
Alors que les projets de mutualisation des données dans divers secteurs – incluant ceux de la santé – se multiplient au Québec, la question de leur encadrement juridique se pose avec acuité. En effet, comment garantir que cette forme d’exploitation collective des données ne se traduise pas en bout de ligne par une augmentation de l’atteinte aux droits et intérêts des personnes physiques ? Comment éviter que ces modes d'exploitation des données, souvent portés par des considérations d'intérêt général, ne s'enlisent davantage dans la défiance et l’inacceptabilité sociale alors qu'en dépend l'innovation économique et sociale ? Dès lors, ce texte a pour objet de présenter la fiducie de données comme structure juridique de gouvernance des données et d’exposer en quoi cet outil émergent s’avère pertinent dans le contexte de projets de mutualisation des données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

A. EKOU. „AOD et gestion des actes invasifs et/ou des hémorragies“. Les pathologies vasculaires (anciennement ANGEIOLOGIE) 71, Nr. 03 (01.09.2019): 12. http://dx.doi.org/10.54695/mva.71.03.2230.

Der volle Inhalt der Quelle
Annotation:
Depuis leur mise sur le marché, il y a plus de huit ans,l’experience et les données concernant les patients traitéspar anticoagulants oraux directs (AOD) et bénéficiant d’ungeste invasif programmé ou d’une prise en charge enurgence se sont particulièrement enrichies. Dans le mêmetemps, une augmentation du risque hémorragique lors dela réalisation de relais anticoagulants (bridging) péri-opératoires a été rapportée sans réduction manifeste durisque thrombotique. Le relais par anticoagulant parentéral n’est plus indiqué. Ces données nouvelles conduisent aadapter les propositions émises par les sociétés savanteset les groupes d’experts que nous aborderons dans cetarticle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Djohy, Gildas Louis, Boni Sounon Boukou, Paulin Jésutin Dossou und Jacob Afouda Yabi. „Perception des changements climatiques par les éleveurs de bovins et observations météorologiques dans le bassin de l’Ouémé supérieur au Bénin“. Revue d’élevage et de médecine vétérinaire des pays tropicaux 74, Nr. 3 (30.09.2021): 145–52. http://dx.doi.org/10.19182/remvt.36761.

Der volle Inhalt der Quelle
Annotation:
Les stratégies d’adaptation développées par les populations rurales en général et les éleveurs en particulier face aux dérèglements climatiques traduisent globalement leur perception. Ainsi, la bonne ou la mauvaise perception des changements climatiques détermine la pertinence des mesures d’adaptation. La présente étude a eu pour objectif d’analyser la perception des changements climatiques par les éleveurs de bovins et leur pertinence par rapport aux observations météorologiques dans le bassin de l’Ouémé supérieur au Bénin. Cette analyse s’est appuyée sur la collecte des données météorologiques (pluviométrie et température) sur la période de 1980 à 2019 et des données socioanthropologiques issues d’enquêtes de terrain. Trois cents éleveurs de bovins ont été interviewés. Les principales données collectées sur le terrain étaient relatives aux caractéristiques sociodémographiques et à la perception des changements climatiques. Les données météorologiques ont été analysées selon l’indice standardisé des précipitations et les données de terrain selon la méthode fréquentielle. Les résultats ont révélé que les éleveurs percevaient une augmentation de la température moyenne et un prolongement de la saison sèche, ce qui correspondait aux observations météorologiques. En revanche, leur perception d’une diminution des extrêmes pluviométriques, d’une augmentation des extrêmes thermométriques, d’une fin précoce de la saison pluvieuse, d’une installation de plus en plus tardive de la saison des pluies et d’une durée plus courte de la saison des pluies était contraire aux observations météorologiques. La prise en compte de la perception des éleveurs de bovins dans l’élaboration des politiques d’adaptation aux changements climatiques contribuerait fortement au développement durable du secteur d’élevage.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Verger, Christian, und Emmanuel Fabre. „Evolution de la dialyse péritonéale en France depuis 2018 et durant les « années COVID » Rapport RDPLF“. Bulletin de la Dialyse à Domicile 5, Nr. 3 (06.09.2022): 193–201. http://dx.doi.org/10.25796/bdd.v5i3.67903.

Der volle Inhalt der Quelle
Annotation:
La quasi-totalité (99 %) des patients traités par dialyse péritonéale en France est enregistrée dans la base de données du RDPLF. En dehors de toute analyse statistique visant à interpréter les chiffres, ce travail est un rapport des données brutes observées dans la population d’insuffisants rénaux Stade V traités par dialyse péritonéale depuis le début de l’épidémie COVID-19 et dans les deux années qui ont précédé. Depuis le début de l’épidémie ces données semblent montrer une diminution de l’incidence des traitements par dialyse péritonéale et une augmentation des transferts en hémodialyse en centre. On observe par ailleurs une diminution des inscriptions sur liste d’attente de transplantation et une diminution du nombre de transplantations. Si la baisse temporaire de l’activité de transplantation peut s’expliquer par la désorganisation qu’a provoquée l’épidémie dans les hôpitaux, une baisse des indications de mise à domicile mérite probablement une réflexion plus approfondie sur ses causes, d’autant plus que ce résultat est en opposition avec les tendances d’autres pays. Ce rapport a pour but d’encourager des études plus précises sur l’intérêt de la dialyse à domicile en période épidémique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Magis, David, Sébastien Béland und Gilles Raîche. „Un processus itératif pour réduire l’impact de réponses aberrantes sur l’identification de patrons de réponses inappropriés“. Mesure et évaluation en éducation 36, Nr. 2 (17.04.2014): 87–110. http://dx.doi.org/10.7202/1024416ar.

Der volle Inhalt der Quelle
Annotation:
La présence de réponses aberrantes est habituellement détectée par l’utilisation d’indices d’ajustement permettant de déterminer si le patron de réponses est inapproprié par rapport aux caractéristiques du test. Cette approche nécessite cependant une préestimation des paramètres d’items qui est souvent réalisée sur le même ensemble de données. La présence de réponses aberrantes pourrait donc influencer le processus de calibration et la détection de patrons inappropriés. Cet article présente un processus itératif pour réduire le risque d’une calibration biaisée causée par la présence de réponses aberrantes. La démarche consiste à retirer successivement les patrons identifiés comme inappropriés du processus de calibration des items. Ce processus est illustré en analysant les données d’un test de classement en anglais langue seconde (TCaLS-II) au Québec. L’application du processus itératif aux données met en évidence une augmentation du nombre de patrons de réponses détectés comme inappropriés, présentant un impact relativement faible sur les paramètres d’items estimés et un nombre restreint d’itérations nécessaires pour obtenir une convergence du processus itératif.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Nwanta, J. N., und J. U. Umoh. „Épidémiologie de la péripneumonie contagieuse bovine dans les Etats du nord du Nigeria. Mise à jour“. Revue d’élevage et de médecine vétérinaire des pays tropicaux 45, Nr. 1 (01.01.1992): 17–20. http://dx.doi.org/10.19182/remvt.8949.

Der volle Inhalt der Quelle
Annotation:
La présente étude porte sur une période de 20 ans (1970 à 1989). Elle confronte, année par année, les données concernant l'apparition d'épidémies de péripneumonie contagieuse bovine et la vaccination contre cette maladie, afin de déterminer la corrélation entre la vaccination et le nombre d'épidémies enregistré au Nigeria. Les résultats montrent que lorsque la vaccination a été intensifiée, de 1975 à 1986, les cas étaient moins nombreux. Le nombre de troupeaux atteints et le nombre total d'animaux morts enregistrés dans les troupeaux était en augmentation à la fin des années 80. Les données concernant la répartition saisonnière des épidémies révèlent qu'elles surviennent principalement au cours de la saison sèche (octobre à mars). Lorsque les données concernant la répartition géographique étaient inscrites sur une carte, selon les renseignements livrés par les fichiers sur les épidémies, il apparaissait qu'elles étaient principalement localisées au bord des cours d'eau. En outre, la morbidité des pays avoisinants était corrélée aux problèmes épidémiologiques du Nigeria.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Léger, Juliane. „Épidémiologie de l’hypothyroïdie congénitale en France : données récentes“. Biologie Aujourd'hui 213, Nr. 1-2 (2019): 1–5. http://dx.doi.org/10.1051/jbio/2019005.

Der volle Inhalt der Quelle
Annotation:
L’hypothyroïdie congénitale (HC) est une maladie liée à une sécrétion insuffisante d’hormone thyroïdienne par la glande thyroïde. Elle peut être en relation soit avec une anomalie de développement de la glande soit avec une glande en place avec ou sans goitre. Le dépistage néonatal systématique mis en place depuis environ 40 ans a permis d’améliorer nos connaissances sur l’épidémiologie de cette maladie rare qui affecte environ une naissance sur 3000. Une augmentation de l’incidence de la maladie a été rapportée ces dernières années. Elle affecte surtout les formes avec glande en place.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Mitra, D., A. K. Shaw und K. Hutchings. „Évolution de l’incidence du cancer chez les enfants au Canada, 1992–2006“. Maladies chroniques et blessures au Canada 32, Nr. 3 (Juni 2012): 147–55. http://dx.doi.org/10.24095/hpcdp.32.3.03f.

Der volle Inhalt der Quelle
Annotation:
Introduction Le cancer est la principale cause de décès lié à la maladie chez les enfants de 1 à 14 ans au Canada. Malgré l’importance pour la santé publique du cancer chez les enfants, peu de rapports évalués par des pairs ont été publiés sur l’évolution de la situation au Canada. La présente étude porte sur l’évolution des cas de cancer par âge, par sexe et par province de résidence, selon les plus récentes données sur les cancers enregistrés. Méthodologie Nous avons utilisé les données fondées sur la population du Registre canadien du cancer pour dégager les tendances de l’incidence des cancers primitifs diagnostiqués entre 1992 et 2006 chez les enfants (0-14 ans) pour les 12 grandes catégories de cancer de la Classification internationale du cancer chez les enfants, 3e édition (CICE-3). Résultats De 1992 à 2006, le taux d’incidence de tous les cancers confondus est demeuré stable, mais les tendances variaient selon le type de cancer. Nous avons observé chez les garçons une diminution significative des rétinoblastomes sur l’ensemble de la période à l’étude (− 6,5 % par année) ainsi qu’une augmentation des leucémies de 1992 à 1999 (+ 3,5 % par année). Chez les filles, nous avons constaté une diminution significative des tumeurs du rein de 1998 à 2006 (− 5,7 % par année) et une augmentation des tumeurs du foie de 1997 à 2006 (+ 8,1 % par année). Nous avons aussi relevé des différences en fonction de l’âge et de la province. Il faut interpréter avec prudence les tendances qui se rapportent à un faible nombre de cas par année ou qui présentent un large intervalle de confiance à 95 %. Conclusion Les résultats illustrent la nécessité d’une surveillance à l’échelle de la population et des besoins en recherche étiologique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Boistard, P. „Influence du prix de l'eau potable sur la consommation des usagers domestiques en France“. Revue des sciences de l'eau 6, Nr. 3 (12.04.2005): 335–52. http://dx.doi.org/10.7202/705179ar.

Der volle Inhalt der Quelle
Annotation:
Élasticité des consommations d'eau vis-à-vis du prix. Cet article analyse la façon dont les consommations des usagers domestiques des services d'eau sont influencées par le prix du service. Les calculs d'élasticité s'appuient sur des données de prix du service et de consommation domestique par habitant issues d'enquêtes qui ont été menées entre 1975 et 1990 auprès d'un grand nombre de services d'eau français (entre 500 et 1 362 services desservant de 8 à 17 millions d'usagers). Les calculs d'élasticité vis-à-vis du prix sont menés suivant les deux méthodes classiquement utilisées : par observation des évolutions des consommations domestiques qui font suite à une forte augmentation du prix du service et par observation des écarts de consommation qui existent à un moment donné entre des services dont les usagers sont soumis à des prix différents. Plusieurs calculs sont ainsi menés suivant des méthodes différentes et portant sur des jeux de données différents. La taille importante des échantillons permet de mettre en évidence la relation entre consommation et prix sans avoir à connaître les éléments autres que le prix qui influencent les consommations et dont l'évaluation est toujours difficile et critiquable. Les résultats obtenus sont remarquablement convergents et montrent que les usagers domestiques réalisent un ajustement faible mais réel au prix du service. Ils indiquent également que la diminution des consommations constatée suite à une augmentation du prix du service peut s'étaler sur plusieurs années et qu'elle a un effet durable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Idrissou, Yaya, Alassan Assani Seidou, Fréjus Mahougnon Tossou, Hilaire Sorébou Sanni Worogo, Mohamed Nasser Baco, Josias Steve Adjassin, Brice Gérard Comlan Assogba und Ibrahim Alkoiret Traore. „Perception du changement climatique par les éleveurs de bovins des zones tropicales sèche et subhumide du Bénin : comparaison avec les données météorologiques“. Cahiers Agricultures 29 (2020): 1. http://dx.doi.org/10.1051/cagri/2019032.

Der volle Inhalt der Quelle
Annotation:
Une fausse perception du changement climatique peut entraîner une absence d’adaptation ou une mauvaise adaptation, augmentant ainsi la vulnérabilité à ce changement. Cependant très peu d’études se sont intéressées à cette question, surtout chez les éleveurs. Cette étude compare la perception du changement climatique des éleveurs de bovins des zones tropicales sèche et subhumide du Bénin avec les données climatiques des 40 dernières années. À cet effet, 360 éleveurs de bovins ont été interrogés dans ces zones. Les données collectées sont relatives aux caractéristiques sociodémographiques des éleveurs, ainsi qu’à leur perception du changement climatique. Les données climatiques couvrant la période 1976–2015 ont été collectées dans les stations météorologiques les plus proches de chaque zone d’étude. Les données d’enquête ont été soumises aux analyses fréquentielles et les données climatiques aux anomalies standardisées. Les résultats montrent que plus de 70 % des éleveurs des deux zones d’étude ont perçu une installation plus tardive de la saison pluvieuse, ainsi qu’une augmentation de la température et de la durée des poches de sécheresse, ce qui correspond aux données climatiques. Par contre, il existe un décalage entre les données climatiques et les perceptions des éleveurs, pour lesquels la pluviométrie aurait diminué et la saison des pluies se terminerait plus tôt. Cette étude permet de conclure que l’intégration d’indicateurs du changement perçus par les éleveurs serait pertinente pour élaborer des stratégies d’adaptation au changement climatique appropriées, consensuelles et durables, en facilitant la compréhension et la concertation entre éleveurs et scientifiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Augmentation des données par interpolation"

1

Venkataramanan, Shashanka. „Metric learning for instance and category-level visual representation“. Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS022.

Der volle Inhalt der Quelle
Annotation:
Le principal objectif de la vision par ordinateur est de permettre aux machines d'extraire des informations significatives à partir de données visuelles, telles que des images et des vidéos, et de tirer parti de ces informations pour effectuer une large gamme de tâches. À cette fin, de nombreuses recherches se sont concentrées sur le développement de modèles d'apprentissage profond capables de coder des représentations visuelles complètes et robustes. Une stratégie importante dans ce contexte consiste à préentraîner des modèles sur des ensembles de données à grande échelle, tels qu'ImageNet, pour apprendre des représentations qui peuvent présenter une applicabilité transversale aux tâches et faciliter la gestion réussie de diverses tâches en aval avec un minimum d'effort. Pour faciliter l'apprentissage sur ces ensembles de données à grande échelle et coder de bonnes représentations, des stratégies complexes d'augmentation des données ont été utilisées. Cependant, ces augmentations peuvent être limitées dans leur portée, étant soit conçues manuellement et manquant de diversité, soit générant des images qui paraissent artificielles. De plus, ces techniques d'augmentation se sont principalement concentrées sur le jeu de données ImageNet et ses tâches en aval, limitant leur applicabilité à un éventail plus large de problèmes de vision par ordinateur. Dans cette thèse, nous visons à surmonter ces limitations en explorant différentes approches pour améliorer l'efficacité et l'efficience de l'apprentissage des représentations. Le fil conducteur des travaux présentés est l'utilisation de techniques basées sur l'interpolation, telles que mixup, pour générer des exemples d'entraînement diversifiés et informatifs au-delà du jeu de données original. Dans le premier travail, nous sommes motivés par l'idée de la déformation comme un moyen naturel d'interpoler des images plutôt que d'utiliser une combinaison convexe. Nous montrons que l'alignement géométrique des deux images dans l'espace des caractéristiques permet une interpolation plus naturelle qui conserve la géométrie d'une image et la texture de l'autre, la reliant au transfert de style. En nous appuyant sur ces observations, nous explorons la combinaison de mix6up et de l'apprentissage métrique profond. Nous développons une formulation généralisée qui intègre mix6up dans l'apprentissage métrique, conduisant à des représentations améliorées qui explorent des zones de l'espace d'embedding au-delà des classes d'entraînement. En nous appuyant sur ces insights, nous revisitons la motivation originale de mixup et générons un plus grand nombre d'exemples interpolés au-delà de la taille du mini-lot en interpolant dans l'espace d'embedding. Cette approche nous permet d'échantillonner sur l'ensemble de l'enveloppe convexe du mini-lot, plutôt que juste le long des segments linéaires entre les paires d'exemples. Enfin, nous explorons le potentiel de l'utilisation d'augmentations naturelles d'objets à partir de vidéos. Nous introduisons un ensemble de données "Walking Tours" de vidéos égocentriques en première personne, qui capturent une large gamme d'objets et d'actions dans des transitions de scènes naturelles. Nous proposons ensuite une nouvelle méthode de préentraînement auto-supervisée appelée DoRA, qui détecte et suit des objets dans des images vidéo, dérivant de multiples vues à partir des suivis et les utilisant de manière auto-supervisée
The primary goal in computer vision is to enable machines to extract meaningful information from visual data, such as images and videos, and leverage this information to perform a wide range of tasks. To this end, substantial research has focused on developing deep learning models capable of encoding comprehensive and robust visual representations. A prominent strategy in this context involves pretraining models on large-scale datasets, such as ImageNet, to learn representations that can exhibit cross-task applicability and facilitate the successful handling of diverse downstream tasks with minimal effort. To facilitate learning on these large-scale datasets and encode good representations, com- plex data augmentation strategies have been used. However, these augmentations can be limited in their scope, either being hand-crafted and lacking diversity, or generating images that appear unnatural. Moreover, the focus of these augmentation techniques has primarily been on the ImageNet dataset and its downstream tasks, limiting their applicability to a broader range of computer vision problems. In this thesis, we aim to tackle these limitations by exploring different approaches to en- hance the efficiency and effectiveness in representation learning. The common thread across the works presented is the use of interpolation-based techniques, such as mixup, to generate diverse and informative training examples beyond the original dataset. In the first work, we are motivated by the idea of deformation as a natural way of interpolating images rather than using a convex combination. We show that geometrically aligning the two images in the fea- ture space, allows for more natural interpolation that retains the geometry of one image and the texture of the other, connecting it to style transfer. Drawing from these observations, we explore the combination of mixup and deep metric learning. We develop a generalized formu- lation that accommodates mixup in metric learning, leading to improved representations that explore areas of the embedding space beyond the training classes. Building on these insights, we revisit the original motivation of mixup and generate a larger number of interpolated examples beyond the mini-batch size by interpolating in the embedding space. This approach allows us to sample on the entire convex hull of the mini-batch, rather than just along lin- ear segments between pairs of examples. Finally, we investigate the potential of using natural augmentations of objects from videos. We introduce a "Walking Tours" dataset of first-person egocentric videos, which capture a diverse range of objects and actions in natural scene transi- tions. We then propose a novel self-supervised pretraining method called DoRA, which detects and tracks objects in video frames, deriving multiple views from the tracks and using them in a self-supervised manner
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Moumina, Tarik. „Interpolation par des splines quadratiques qui préservent la forme des données“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0019/MQ56946.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Yang, Feng. „Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion“. Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00578777.

Der volle Inhalt der Quelle
Annotation:
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Tlich, Mohamed. „Augmentation des performances des systèmes DSL par allocation dynamique de spectre“. Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001889.

Der volle Inhalt der Quelle
Annotation:
Les systèmes DSL sont des technologies de transmission qui transportent des flux de données importants sur de simples lignes téléphoniques. Malheureusement, plusieurs phénomènes perturbateurs sont susceptibles de dégrader la qualité des liaisons. Les limitations sont principalement dues à l'affaiblissement ainsi qu'à des problèmes de compatibilité électromagnétique. Dans ce contexte, ce travail de thèse consiste à augmenter les performances marge de bruit/débit/portée des systèmes DSL par allocation dynamique de spectre (DSM: Dynamic Spectrum Management). Dans une première partie sont développées trois méthodes d'allocation discrète de bits entre les porteuses d'un système DSL à modulation DMT. La première est une simplification importante de l'algorithme de P.S. Chow à distribution plate d'énergie. La deuxième étant un processus de moindre complexité qui nous ramène à la distribution optimale d'énergie entre les porteuses, appelé "remplissage par Gammas croissants". Et la troisième est une méthode d'attribution de marges de bruit distinctes aux différents flux d'une même liaison DSL. Après cette amélioration de la technologie de transmission DSL qui constitue le niveau 0 de la DSM, l'atténuation de l'interférence entre les lignes d'un même câble DSL par allocation coordonnée de spectre (niveau 2 de la DSM) est abordée, et deux procédés sont proposés. Le premier est un procédé de réglage dynamique des DSP des porteuses les unes indépendamment des autres, de façon à réduire l'interférence provenant de certaines lignes dont le débit est supérieur au débit nécessaire aux services. Le deuxième procédé est une nouvelle architecture DSL, caractérisée par l'introduction d'éléments actifs dans la sous-répartition. Les performances des lignes, divisées en deux tronçons plus courts et séparés, sont ainsi améliorées. Dans une dernière partie est considérée la transmission vectorielle qui constitue le troisième niveau de la DSM. Des méthodes d'annulation d'interférence entre les lignes d'un même câble DSL sont présentées, et un modèle de détermination de la matrice de canal MIMO est développé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Aupetit, Michaël. „Approximation de variétés par réseaux de neurones auto-organisés“. Grenoble INPG, 2001. http://www.theses.fr/2001INPG0128.

Der volle Inhalt der Quelle
Annotation:
Les problèmes de discrimination, de classification, d'approximation de fonctions, de diagnostic ou de commande qui se posent notamment dans le domaine du génie industriel, peuvent se ramener à un problème d'approximation de variétés. Nous proposons une méthode d'approximation de variétés sous-jacentes à une distribution de données, basée sur une approche connexionniste auto-organisée et procédant en trois étapes : un positionnement de représentants de la distribution par des techniques de quantification vectorielle permet d'obtenir un modèle discret, un apprentissage de la topologie de cette distribution par construction de la triangulation induite de Delaunay selon un algorithme d'apprentissage compétitif donne un modèle linéaire par morceaux, et une interpolation non linéaire mène à un modèle non linéaire des variétés. Notre première contribution concerne la définition, l'étude des propriétés géométriques et la proposition d'algorithmes de recherche d'un nouveau type de voisinage "[gamma]-Observable" alliant des avantages du voisinage des k-plus-proches-voisins et du voisinage naturel, utilisable en grande dimension et en quantification vectorielle. Notre seconde contribution concerne une méthode d'interpolation basée sur des "noyaux de Voronoi͏̈" assurant la propriété d'orthogonalité nécessaire à la modélisation de variétés, avec une complexité de calcul équivalente ou plus faible que les méthodes d'interpolation existantes. Cette technique est liée au voisinage [gamma]-Observable et permet de construire différents noyaux gaussiens utilisés dans les réseaux RBFs. Les outils développés dans cette approche originale sont appliqués en approximation de fonctions pour l'identification d'un préhenseur électropneumatique, en approximation de variétés, et en discrimination et analyse de données. Il est notamment montré qu'il est intéressant d'utiliser les voisins 0. 5-observables pour définir les points frontières entre classes et affecter les éléments à leur classe d'appartenance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Mora, Benjamin. „Nouveaux algorithmes interatifs pour la visualisation de données volumiques“. Toulouse 3, 2001. http://www.theses.fr/2001TOU30192.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Marriott, Richard. „Data-augmentation with synthetic identities for robust facial recognition“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEC048.

Der volle Inhalt der Quelle
Annotation:
En 2014, l'utilisation des réseaux neuronaux profonds (RNP) a révolutionné la reconnaissance faciale (RF). Les RNP sont capables d'apprendre à extraire des images des représentations basées sur des caractéristiques qui sont discriminantes et robustes aux détails non pertinents. On peut dire que l'un des facteurs les plus importants qui limitent aujourd'hui les performances des algorithmes de RF sont les données utilisées pour les entraîner. Les ensembles de données d'images de haute qualité qui sont représentatives des conditions de test du monde réel peuvent être difficiles à collecter. Une solution possible est d'augmenter les ensembles de données avec des images synthétiques. Cette option est récemment devenue plus viable suite au développement des « generative adversarial networks » (GAN) qui permettent de générer des échantillons de données synthétiques très réalistes. Cette thèse étudie l'utilisation des GAN pour augmenter les ensembles de données FR. Elle examine la capacité des GAN à générer de nouvelles identités, et leur capacité à démêler l'identité des autres formes de variation des images. Enfin, un GAN intégrant un modèle 3D est proposé afin de démêler complètement la pose de l'identité. Il est démontré que les images synthétisées à l'aide du GAN 3D améliorent la reconnaissance des visages aux poses larges et une précision état de l'art est démontrée pour l'ensemble de données d'évaluation ``Cross-Pose LFW''.Le dernier chapitre de la thèse évalue l'une des utilisations plus néfastes des images synthétiques : l'attaque par morphing du visage. Ces attaques exploitent l'imprécision des systèmes de RF en manipulant les images de manière à ce qu'il puisse être faussement vérifié qu'elles appartiennent à plus d'une personne. Une évaluation des attaques par morphing de visage basées sur le GAN est fournie. Une nouvelle méthode de morphing basée sur le GAN est également présentée, qui minimise la distance entre l'image transformée et les identités originales dans un espace de caractéristiques biométriques. Une contre-mesure potentielle à ces attaques par morphing consiste à entraîner les réseaux FR en utilisant des identités synthétiques supplémentaires. Dans cette veine, l'effet de l'entraînement utilisant des données synthétiques GAN 3D sur le succès des attaques simulées de morphing facial est évalué
In 2014, use of deep neural networks (DNNs) revolutionised facial recognition (FR). DNNs are capable of learning to extract feature-based representations from images that are discriminative and robust to extraneous detail. Arguably, one of the most important factors now limiting the performance of FR algorithms is the data used to train them. High-quality image datasets that are representative of real-world test conditions can be difficult to collect. One potential solution is to augment datasets with synthetic images. This option recently became increasingly viable following the development of generative adversarial networks (GANs) which allow generation of highly realistic, synthetic data samples. This thesis investigates the use of GANs for augmentation of FR datasets. It looks at the ability of GANs to generate new identities, and their ability to disentangle identity from other forms of variation in images. Ultimately, a GAN integrating a 3D model is proposed in order to fully disentangle pose from identity. Images synthesised using the 3D GAN are shown to improve large-pose FR and a state-of-the-art accuracy is demonstrated for the challenging Cross-Pose LFW evaluation dataset.The final chapter of the thesis evaluates one of the more nefarious uses of synthetic images: the face-morphing attack. Such attacks exploit imprecision in FR systems by manipulating images such that they might be falsely verified as belonging to more than one person. An evaluation of GAN-based face-morphing attacks is provided. Also introduced is a novel, GAN-based morphing method that minimises the distance of the morphed image from the original identities in a biometric feature-space. A potential counter measure to such morphing attacks is to train FR networks using additional, synthetic identities. In this vein, the effect of training using synthetic, 3D GAN data on the success of simulated face-morphing attacks is evaluated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Barreiros, Salvado Miguel. „Optimisation des transports dans la couche active de PEMFC par une approche couplée modélisation/caractérisation : augmentation des performances des couches actives aux hautes densités de courant“. Thesis, Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALI016.

Der volle Inhalt der Quelle
Annotation:
Les piles à combustible PEMFC sont parmis les technologies les plus prometteuses pour le développement futur du transport automobile. Cependant, des barrières doivent être surmonté pour arriver à une position solide dans le marché des véhicules électriques. Ces barrières incluent le coût, où une fraction significative peut être attribuée à l'utilisation du Pt dans les couches actives.Dans la région de très fort courant, une forte baisse de performance est observée. Cette baisse est associée aux limitations par les transports ionique et de matière. Par conséquent, réduire simultanément le chargement de Pt et améliorer la performance à très fort courant requiert en premier lieu l'identification des principales sources de limitation de performance. Puisque la CCL est un milieu très hétérogène avec des éléments d'échelles très différentes, une charactérization d'imagerie multiéchelle est nécessaire pour analyser sa structure.Dans ce travail, différentes techniques de microscopie électronique (ME) et de modélisation multiéchelle ont été développés. Ce cadre permet de réproduire des géometries 3D de la CCL, où un modèle physique est implementé, et des simulations numériques à l'échelle local et CCL sont réalisées. Les différentes techniques de ME incluent le FIB-SEM à partir de laquelle la distribution de la phase de carbone est determinée, l'HAADF-STEM pour determiner la distribution de tailles des particules de Pt, et l'HRTEM à partir de laquelle une épaisseur moyenne pour la fine couche de Nafion est mésurée. Ces images passent pour un procès de post-traitement qui inclut la segmentation et l'alignement des images tomographiques. À partir de ces images, les géometries sont réproduites. De plus, un modèle physique que inclut le transport de multiespèces dans les phases de Nafion et les pores, le transport ionique dans le Nafion et la loi de Butler-Volmer à l'interface du Pt pour décrire la cinétique d'ORR, est implementé. Ce modèle 3D de la CCL est couplé avec un modèle 2D à l'échelle AME, à partir duquel les conditions locales sont déterminées et utilisées comme conditions aux limites du modèle 3D. Une analyse dans les géométries 3D est réalisée aux deux échelles (local et CCL). Pour le premier, il a été trouvé que les structures avec des petites particules de Pt présentent de meilleures performances à cause de l'augmentation de surface disponible pour la réaction électrochimique. Cependant, la présence des particules de Pt dans des larges agglomérations de Nafion ainsi que les effects de compétition entre particules peuvent jouer un rôle préjudiciable sur les performances. Dans l'analyse à l'échelle CCL, les effets de taille de particule de Pt, d'épaisseur de la couche de Nafion et taille des aggrégats de carbone sont analysés. En accord avec ce qui a été trouvé à l'échelle local, des structures avec des petites particules de Pt présentent de meilleures performances. Par rapport à l'épaisseur de la couche de Nafion, un compromis entre une amélioration du transport ionique et une augmentation de la résistance de transport d'oxygène à travers de l'épaississement de la couche de Nafion a été mis en évidence. Les résults démontrent que l'augmentation de l'épaisseur de la couche de Nafion de 8 à 10 nm est bénéfique pour la performance quand la porosité est plus grande que 30%. De plus, ces résultats soutiennent le fait que comprendre le gonflement d'une fine couche de Nafion est cruciale pour une modélisation plus précise de la réponse de la CCL. Finalement, l'impact de l'arrangement de la structure a été analysé et les gains de performance lors de la réduction des tortuosités du Nafion et des pores jusqu'à l'unité ont été quantifiés. La performance a ainsi été améliorée de 25% à par la diminution de la limitation par le transport ionique
PEMFCs are among the most promising technologies for the future of the automotive industry. However, major barriers must be overcome in order to achieve a solid position in the electric vehicle market. These include the cost, where a significant fraction can be attributed to the employment of Pt in the catalyst layers.In the region of high current densities, a steep drop is commonly observed and it is usually associated with ionic and mass transport limitations in the cathode catalyst layer (CCL). Therefore, simultaneously reducing the Pt loading and improving the performance at high current density requires at first an identification of the main source(s) of performance limitations. Since the CCL is a highly heterogeneous material with features of disparate length scales, a multiscale imaging characterization setup is required in order to analyze its structure.In this work, a framework including multiscale electron microscopy (EM) characterization and multiscale modeling has been developed. Such framework allows reproducing real 3D CCL geometries using an innovative reconstruction algorithm that was designed for the purpose. Moreover, a physical model is implemented in these 3D geometries, and subsequently, numerical simulations at the local and CCL scales are performed. The multiscale EM setup includes FIB-SEM from which the carbon phase distribution is determined, HAADF-STEM to determine the representative Pt particle size distribution, and finally, HRTEM from which an average thickness for the Nafion thin film is measured. These images go through a post-treatment procedure which includes segmentation and alignment for the tomographic images. From these, geometries are then reproduced. Moreover, a physical model including multispecies transport on the Nafion and pore phases, ionic transport on the Nafion phase and a Butler-Volmer law at the Pt interface to describe the ORR kinetics, is implemented. The CCL 3D model is then coupled with a 2D MEA-scale model, from which local conditions are extracted and subsequently used as input in the local model. An analysis on the 3D geometries is then performed at both local and CCL scales. Regarding the former, it is found that structures with smaller Pt particles always present a better performance due to an increase in the amount of surface available for the electrochemical reaction to proceed. Though, the presence of Pt particles in large Nafion agglomerations as well as Pt interparticle competition effects can play a major detrimental role on performance (differences in local performance up to 26%). In the CCL scale analysis, the effects of the Pt particle size, the Nafion layer thickness and carbon aggreggate size are analyzed. In accordance to what is observed at the local scale, structures with smaller particles also display a better performance. Regarding the Nafion layer thickness, a balance between an enhancement in ionic transport and an increased resistance to oxygen transport upon thickening of the Nafion film has been highlighted. Results show that increasing the Nafion layer thickness from 8 to 10 nm is only benefitial for performance when the porosity is above 30%. Furthermore, these support the fact that understanding the swelling behavior of the Nafion thin film is crucial for a more accurate determination of the CCL's response. In its turn, enlarging the carbon aggregates can be detrimental for performance since some pores may vanish and regions with Pt particles located on large Nafion agglomerations may become starved from oxygen. Finally, the impact of the structure arrangement has been analyzed and gains in performance upon minimizing the tortuosities of both Nafion and pore phases to unity have been quantified. An improvement in performance of 25% was found, mainly as a result of the favoured ionic transport
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ghrissi, Amina. „Ablation par catheter de fibrillation atriale persistante guidée par dispersion spatiotemporelle d’électrogrammes : Identification automatique basée sur l’apprentissage statistique“. Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4026.

Der volle Inhalt der Quelle
Annotation:
La fibrillation atriale (FA) est l’arythmie cardiaque soutenue la plus fréquemment rencontrée dans la pratique clinique. Pour la traiter, l’ablation par cathéter de zones cardiaques jugées responsables de soutenir l’arythmie est devenue la thérapie la plus utilisée. Un nouveau protocole d’ablation se base sur l’identification des zones atriales où les électrogrammes (EGM) enregistrés à l’aide d’un cathéter à électrodes multiples, appelé PentaRay, manifestent des décalages spatiotemporels significatifs sur plusieurs voies adjacentes. Ce phénomène est appelé dispersion spatio-temporelle (DST). L’intervention devient ainsi plus adaptée aux spécificités de chaque patient et elle atteint un taux de succès procédural de 95%. Cependant, à l’heure actuelle les zones de DST sont identifiées de manière visuelle par le spécialiste pratiquant l’ablation. Cette thèse vise à identifier automatiquement les sites potentiels d’ablation basée sur la DST à l’aide de techniques d’apprentissage statistique et notamment d’apprentissage profond adaptées. Dans la première partie, les enregistrements EGM sont classés par catégorie en DST vs. non-DST. Cependant, le rapport très déséquilibré entre les données issues des deux classes dégrade les résultats de classification. Nous abordons ce problème en utilisant des techniques d’augmentation de données adaptées à la problématique médicale et qui permettent d’obtenir de bons taux de classification. La performance globale s’élève ainsi atteignant des valeurs de précision et d’aire sous la courbe ROC autour de 90%. Deux approches sont ensuite comparées, l’ingénierie des caractéristiques et l’extraction automatique de ces caractéristiques par apprentissage statistique à partir d’une série temporelle, appelée valeur absolue de tension maximale aux branches du PentRay (VAVp). Les résultats montrent que la classification supervisée de VAVp est prometteuse avec des valeurs de précision, sensibilité et spécificité autour de 90%. Ensuite, la classification des enregistrements EGM bruts est effectuée à l’aide de plusieurs outils d’apprentissage statistique. Une première approche consiste à étudier les circuits arithmétiques à convolution pour leur intérêt théorique prometteur, mais les expériences sur des données synthétiques sont infructueuses. Enfin, nous investiguons des outils d’apprentissage supervisé plus conventionnels comme les réseaux de neurones convolutifs (RNC). Nous concevons une sélection de représentation des données adaptées à différents algorithmes de classification. Ces modèles sont ensuite évalués en termes de performance et coût de calcul. L’apprentissage profond par transfert est aussi étudié. La meilleure performance est obtenue avec un RNC peu profond pour la classification des matrices EGM brutes, atteignant 94% de précision et d’aire sous la courbe ROC en plus d’un score F1 de 60%. Dans la deuxième partie, les enregistrements EGM acquis pendant la cartographie sont étiquetés ablatés vs. non-ablatés en fonction de leur proximité par rapport aux sites d’ablation, puis classés dans les mêmes catégories. Les annotations de dispersion sont aussi prises en compte comme une probabilité à priori dans la classification. La meilleure performance représente un score F1 de 76%. L’agrégation de l’étiquette DST ne permet pas d’améliorer les performances du modèle. Globalement, ce travail fait partie des premières tentatives d’application de l’analyse statistique et d’outils d’apprentissage pour l’identification automatique et réussie des zones d’ablation en se basant sur la DST. En fournissant aux cardiologues interventionnels un outil intelligent, objectif et déployé en temps réel qui permet la caractérisation de la dispersion spatiotemporelle, notre solution permet d’améliorer potentiellement l’efficacité de la thérapie personnalisée d’ablation par cathéter de la FA persistante
Catheter ablation is increasingly used to treat atrial fibrillation (AF), the most common sustained cardiac arrhythmia encountered in clinical practice. A recent patient-tailored AF ablation therapy, giving 95% of procedural success rate, is based on the use of a multipolar mapping catheter called PentaRay. It targets areas of spatiotemporal dispersion (STD) in the atria as potential AF drivers. STD stands for a delay of the cardiac activation observed in intracardiac electrograms (EGMs) across contiguous leads.In practice, interventional cardiologists localize STD sites visually using the PentaRay multipolar mapping catheter. This thesis aims to automatically characterize and identify ablation sites in STD-based ablation of persistent AF using machine learning (ML) including deep learning (DL) techniques. In the first part, EGM recordings are classified into STD vs. non-STD groups. However, highly imbalanced dataset ratio hampers the classification performance. We tackle this issue by using adapted data augmentation techniques that help achieve good classification. The overall performance is high with values of accuracy and AUC around 90%. First, two approaches are benchmarked, feature engineering and automatic feature extraction from a time series, called maximal voltage absolute values at any of the bipoles (VAVp). Statistical features are extracted and fed to ML classifiers but no important dissimilarity is obtained between STD and non-STD categories. Results show that the supervised classification of raw VAVp time series itself into the same categories is promising with values of accuracy, AUC, sensi-tivity and specificity around 90%. Second, the classification of raw multichannel EGM recordings is performed. Shallow convolutional arithmetic circuits are investigated for their promising theoretical interest but experimental results on synthetic data are unsuccessful. Then, we move forward to more conventional supervised ML tools. We design a selection of data representations adapted to different ML and DL models, and benchmark their performance in terms of classification and computational cost. Transfer learning is also assessed. The best performance is achieved with a convolutional neural network (CNN) model for classifying raw EGM matrices. The average performance over cross-validation reaches 94% of accuracy and AUC added to an F1-score of 60%. In the second part, EGM recordings acquired during mapping are labeled ablated vs. non-ablated according to their proximity to the ablation sites then classified into the same categories. STD labels, previously defined by interventional cardiologists at the ablation procedure, are also aggregated as a prior probability in the classification task.Classification results on the test set show that a shallow CNN gives the best performance with an F1-score of 76%. Aggregating STD label does not help improve the model’s performance. Overall, this work is among the first attempts at the application of statistical analysis and ML tools to automatically identify successful ablation areas in STD-based ablation. By providing interventional cardiologists with a real-time objective measure of STD, the proposed solution offers the potential to improve the efficiency and effectiveness of this fully patient-tailored catheter ablation approach for treating persistent AF
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Mercadier, Yves. „Classification automatique de textes par réseaux de neurones profonds : application au domaine de la santé“. Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS068.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l'analyse de données textuelles dans le domaine de la santé et en particulier sur la classification supervisée multi-classes de données issues de la littérature biomédicale et des médias sociaux.Une des difficultés majeures lors de l'exploration de telles données par des méthodes d'apprentissage supervisées est de posséder un jeu de données suffisant en nombre d'exemples pour l'entraînement des modèles. En effet, il est généralement nécessaire de catégoriser les données manuellement avant de réaliser l'étape d'apprentissage. La taille importante des jeux de données rend cette tâche de catégorisation très coûteuse, qu'il convient de réduire par des systèmes semi-automatiques.Dans ce contexte, l’apprentissage actif, pendant lequel l’oracle intervient pour choisir les meilleurs exemples à étiqueter, s’avère prometteur. L’intuition est la suivante : en choisissant les exemples intelligemment et non aléatoirement, les modèles devraient s’améliorer avec moins d’efforts pour l’oracle et donc à moindre coût (c’est-a-dire avec moins d’exemples annotés). Dans cette thèse, nous évaluerons différentes approches d’apprentissage actif combinées avec des modèles d’apprentissage profond récents.Par ailleurs, lorsque l’on dispose de peu de données annotées, une possibilité d’amélioration est d’augmenter artificiellement la quantité de données pendant la phase d’entraînement du modèle, en créant de nouvelles données de manière automatique à partir des données existantes. Plus précisément, il s’agit d’injecter de la connaissance en tenant compte des propriétés invariantes des données par rapport à certaines transformations. Les données augmentées peuvent ainsi couvrir un espace d’entrée inexploré, éviter le sur-apprentissage et améliorer la généralisation du modèle. Dans cette thèse, nous proposerons et évaluerons une nouvelle approche d'augmentation de données textuelles
This Ph.D focuses on the analysis of textual data in the health domain and in particular on the supervised multi-class classification of data from biomedical literature and social media.One of the major difficulties when exploring such data by supervised learning methods is to have a sufficient number of data sets for models training. Indeed, it is generally necessary to label manually the data before performing the learning step. The large size of the data sets makes this labellisation task very expensive, which should be reduced with semi-automatic systems.In this context, active learning, in which the Oracle intervenes to choose the best examples to label, is promising. The intuition is as follows: by choosing the smartly the examples and not randomly, the models should improve with less effort for the oracle and therefore at lower cost (i.e. with less annotated examples). In this PhD, we will evaluate different active learning approaches combined with recent deep learning models.In addition, when small annotated data set is available, one possibility of improvement is to artificially increase the data quantity during the training phase, by automatically creating new data from existing data. More precisely, we inject knowledge by taking into account the invariant properties of the data with respect to certain transformations. The augmented data can thus cover an unexplored input space, avoid overfitting and improve the generalization of the model. In this Ph.D, we will propose and evaluate a new approach for textual data augmentation.These two contributions will be evaluated on different textual datasets in the medical domain
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Augmentation des données par interpolation"

1

Warin, Thierry. Vers une économie de données : réflexions pour hausser la productivité de l’économie québécoise à l’heure de la révolution des données. CIRANO, September 2023. http://dx.doi.org/10.54932/csxq4709.

Der volle Inhalt der Quelle
Annotation:
Afin de combler les écarts de richesse du Québec avec ses nombreux partenaires, une réorientation stratégique, impulsée par l’économie des données, semble impérative. Cette transition stratégique devrait s'organiser autour d’une prompte mutation vers une économie axée sur les données, dans le contexte des changements climatiques et de la nouvelle politique industrielle des États-Unis. Il convient de concevoir un modèle de développement qui dépasse la simple augmentation de la production, et qui capitalise sur l'intégration économique du Québec à l'échelle internationale. Face aux impératifs du 21e siècle, le Québec se doit de consolider sa position en tant qu'économie compétitive, écologique et réactive. Néanmoins, l'implémentation d'une telle réorientation nécessite une entente et une collaboration étroite entre diverses parties prenantes, incluant les institutions gouvernementales, le tissu entrepreneurial et la population. Au regard des défis environnementaux et sociaux en constante évolution, cette transformation profonde n'est pas seulement préférable, mais également indispensable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

de Marcellis-Warin, Nathalie, François Vaillancourt, Ingrid Peignier, Molivann Panot, Thomas Gleize und Simon Losier. Obstacles et incitatifs à l’adoption des technologies innovantes dans le secteur minier québécois. CIRANO, Mai 2024. http://dx.doi.org/10.54932/dlxt6536.

Der volle Inhalt der Quelle
Annotation:
Le présent rapport de recherche vise à identifier et à mieux comprendre les obstacles et les incitatifs à l'adoption de technologies innovantes dans le secteur minier québécois en phase d'exploitation, tout en examinant l'impact potentiel des critères ESG (environnementaux, sociaux et de gouvernance) sur cette adoption. Le constat initial, en se basant sur les plus récentes données publiées par Statistique Canada (période 2017-2019), soulignait un certain retard du secteur minier québécois en matière d'innovation par rapport à d'autres secteurs industriels ainsi qu’un certain retard en termes d’innovations organisationnelles par rapport aux compagnies minières ontariennes. Ce projet vise à mettre à jour ces constats, en particulier à la lumière des changements économiques des cinq dernières années. L'investissement minier au Québec a d’ailleurs connu une augmentation en 2022 par rapport aux cinq années précédentes. Le premier volet du projet repose sur une revue approfondie de la littérature concernant l'innovation minière et la finance durable, établissant ainsi une base solide de connaissances. Le deuxième volet du projet vise à actualiser les constats émanant de la littérature et à les valider, infirmer ou nuancer en les appliquant spécifiquement au contexte québécois. Cette phase a impliqué des entretiens avec 30 acteurs clés du secteur, complétés par plus de 50 rencontres informelles lors d'événements sectoriels. L'innovation au sein du secteur minier est considérée comme un levier créateur d'avantages compétitifs, engendrant des économies de coûts, une amélioration de l'efficacité et de la productivité, tout en offrant des avantages plus difficilement quantifiables, tels que la réduction des risques en matière de santé/sécurité, d'environnement, et de réputation. Toutefois, l'adoption des innovations dans le secteur minier est influencée par trois catégories de facteurs : les caractéristiques économiques inhérentes au secteur, notamment l’intensité en capital et l’aspect cyclique de l’industrie minière ; le contexte organisationnel complexe du secteur, axé sur la gestion des risques et marqué par une aversion aux pertes ; l'écosystème spécifique du secteur au Québec, caractérisé par des acteurs aux intérêts parfois divergents, qui rend parfois complexe la gouvernance des données, surtout dans un contexte d'intensification de la transformation numérique de l'industrie. L’essor des critères ESG dans le secteur minier crée de nouveaux défis. La demande croissante de transparence de la part des investisseurs peut impacter les entreprises, en particulier les sociétés minières, où le maintien de la licence sociale d'exploitation demeure crucial. Au-delà des émissions de gaz à effet de serre, une transparence accrue concernant les impacts sociaux et environnementaux devient essentielle. Bien que le lien entre la performance ESG et financière ne fasse pas l'objet d'un consensus actuellement, des pratiques ESG déficientes sont perçues comme préjudiciables. Le suivi précis des données ESG et une transparence reposant sur des cadres communs seront utiles pour anticiper d'éventuelles réglementations à venir. En conclusion, il est essentiel d'orienter les investissements vers des technologies durables, de promouvoir la collaboration avec tous les intervenants de l'industrie et de se préparer à une transparence accrue sur les critères ESG, harmonisée à l'échelle industrielle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Singbo, Alphonse, Cokou Patrice Kpadé und Lota Tamini. Investissement dans les innovations, croissance de la productivité totale des facteurs et commerce international des PME manufacturières québécoises. CIRANO, Juni 2024. http://dx.doi.org/10.54932/czst7397.

Der volle Inhalt der Quelle
Annotation:
La question de la croissance de la productivité et de la compétitivité des entreprises manufacturières du Québec est un enjeu qui a guidé l’élaboration et la mise en œuvre de diverses politiques de développement économique au cours des dernières années. L’économie du Québec et celle des régions dépendent en grande partie de la capacité des entreprises manufacturières à pénétrer les marchés internationaux, à y rester et à performer durablement. Dans ce rapport, les auteurs examinent l’impact des investissements en recherche et développement (R&D) et en technologies de l’information et de communication (TIC) sur les changements structurels d’utilisation des intrants, des coûts et des gains de productivité totale des facteurs (PTF) et évaluent si les gains générés ont un impact sur la destination et le volume des exportations des PME du secteur manufacturier du Québec. Ils s’appuient sur les données du Fichier de microdonnées longitudinales des comptes nationaux (FMLCN) de 2001 à 2022. Leurs analyses suggèrent un faible impact, voire un impact négatif, de l’investissement en R&D et en TIC sur la croissance de la PTF des entreprises manufacturières québécoises. Par ailleurs, une hausse de la PTF entrainerait une augmentation du nombre de destinations ou du nombre de produits exportés, mais seulement dans le cas des exportations à destination des états américains.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Warin, Thierry, Nathalie de Marcellis-Warin und Robert Normand. Mieux comprendre le niveau d’adoption Des cryptoactifs au Québec. CIRANO, November 2022. http://dx.doi.org/10.54932/cswf3465.

Der volle Inhalt der Quelle
Annotation:
Les cryptoactifs se développent de façon exponentielle au sein de l’économie mondiale. Les cryptomonnaies représentent la principale composante des cryptoactifs dont la plus connue est le Bitcoin. Les cryptoactifs partagent bon nombre des caractéristiques des cryptomonnaies mais il y a généralement une deuxième couche de fonctionnalités comme les contrats intelligents. La technologie liée aux cryptoactifs présente certes de nouvelles opportunités mais également des risques. Dans ce contexte, il est important, pour un régulateur de mieux comprendre le niveau d’adoption des cryptomonnaies de la population afin d’orienter les campagnes d’information et les messages de mise en garde. Dans ce projet de recherche exploratoire plusieurs méthodes d’acquisition de données ont été utilisées. Une revue des enquêtes de différentes organisations sur le niveau de connaissance et le profil des utilisateurs de cryptoactifs dans plusieurs pays a été mené. Pour le Québec, des questions spécifiques sur la connaissance et l’adoption des cryptomonnaies ont été ajoutées aux enquêtes 2021 et 2022 du Baromètre CIRANO qui sonde la population du Québec sur des enjeux de société. Afin d’affiner l’analyse, un échantillon d’investisseurs possédant ou ayant possédé des cryptomonnaies, membres de groupes de discussion sur les cryptomonnaies a été sondé. Enfin, une revue algorithmique a montré très nettement une augmentation du nombre de publications académiques sur le sujet, notamment associées à la technologie. De plus, le sujet des cryptomonnaies a été de plus en plus couvert par les médias grand public, ce qui a suscité l'attention et la sensibilisation de la population et notamment sur les réseaux sociaux. L’analyse des conversations sur Twitter a montré que le nombre de gazouillis, qui était stable jusqu’en décembre 2020, a augmenté de façon importante et a porté sur la variation du prix des cryptomonnaies et souvent avec des recommandations d’achat et de vente.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Gestion de la pandémie de COVID-19 - Analyse de la dotation en personnel dans les centres d'hébergement de soins de longue durée du Québec au cours de la première vague. CIRANO, Juni 2023. http://dx.doi.org/10.54932/fupo1664.

Der volle Inhalt der Quelle
Annotation:
Faisant suite à une demande de la Commissaire à la santé et au bien-être, cette étude dresse un portrait de l'évolution de la main-d'oeuvre dans les centres d'hébergement de soins longue durée (CHSLD) avant et pendant la première vague de la pandémie de COVID-19. L’étude s’inscrit dans un effort méthodologique exploratoire visant à analyser l’adéquation entre l’offre de ressources humaines et les besoins des résidents à partir des données disponibles et des outils existants. Elle s’appuie sur un devis longitudinal rétrospectif et utilise des données administratives et clinico-administratives de quatre établissements : trois dans la grande région de Montréal, plus touchés par la première vague, et un établissement hors de la grande région de Montréal. L’étude a répondu aux trois questions suivantes : Dans quelle mesure l’offre de ressources humaines correspondait-elle aux besoins des résidents en CHSLD, avant et pendant la première vague de la pandémie ? Dans quelle mesure l’initiative Je Contribue et le recours aux agences de placement ont permis d’élargir le bassin de main-d’œuvre disponible ? Quelle a été l’ampleur de l’absentéisme et quel a été son impact sur le bassin de main-d’œuvre disponible ? Les auteurs comparent trois méthodes d’estimation des besoins : les profils Iso-SMAF, les ratios minimaux proposés par Voyer et coll. (2016) et les standards recommandés par les US Centers for Medicare and Medicaid Services. Les résultats montrent que les établissements ont fait preuve d’une grande capacité d’adaptation en mobilisant les ressources humaines nécessaires pour atteindre ou même dépasser les ratios minimaux requis. Le nombre de travailleurs de la santé pour 100 résidents a légèrement augmenté au cours de la première vague. Ceci tient compte du fait qu’au cours de la première vague, le nombre de résidents hébergés par établissement a diminué, probablement en raison des décès de plusieurs d’entre eux. L’analyse montre aussi que les établissements les plus touchés par la première vague ont pu maintenir un ratio travailleurs/résidents équivalent ou supérieur aux ratios observés durant la période prépandémie, et ce, malgré une augmentation de taux d’absentéisme de 75 % entre les deux périodes. Ces résultats doivent être interprétés avec prudence puisque l’analyse ne tient pas compte de facteurs plus qualitatifs comme le soutien des gestionnaires, la mobilité des ressources humaines ou la connaissance des pratiques cliniques et organisationnelles du personnel. Au-delà nombre de travailleurs et travailleuses, ces facteurs influencent grandement la performance ou la qualité des services offerts dans un contexte de crise sanitaire. Ce rapport est le deuxième volet d’un projet CIRANO plus large qui examinait sous divers angles les situations de fragilité qui ont pu affecter la performance du système de santé dans sa réponse à la pandémie. Un premier rapport publié en juin 2022 s’appuyait sur une enquête réalisée auprès de 2365 travailleuses et travailleurs. Ce premier volet s’intéressait à leurs perceptions quant aux ressources auxquelles ils ont eu accès et aux exigences et contraintes auxquelles ils ont dû faire face.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie