Academic literature on the topic 'Analyse d'images de document'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Analyse d'images de document.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Analyse d'images de document"

1

Eglin, Véronique. "Approches perceptives et cognitives en analyse automatique d'images de documents." Techniques et sciences informatiques 25, no. 4 (April 1, 2006): 523–51. http://dx.doi.org/10.3166/tsi.25.523-551.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dudoignon, Patrick, Anne Pantet, and Hélène Serra. "Analyse d'images de géomatéiaux argileux." Revue Française de Génie Civil 2, no. 8 (January 1998): 879–904. http://dx.doi.org/10.1080/12795119.1998.9692217.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Louchet, Jean. "Évolution artificielle, optimisation et analyse d'images." Techniques et sciences informatiques 25, no. 8-9 (October 1, 2006): 1049–78. http://dx.doi.org/10.3166/tsi.25.1049-1078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gaill, Francoise, Alain Negrate, and Ghislaine Frebourg. "Analyse de systemes fibrillaires par traitement d'images." Biology of the Cell 63, S1 (1988): 31–31. http://dx.doi.org/10.1016/0248-4900(88)90217-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Breul, Pierre, Roland Gourvès, and Younes Haddani. "Géoendoscopie: caractérisation des géomatériaux par traitement et analyse d'images." Revue Française de Génie Civil 6, sup1 (January 2002): 85–100. http://dx.doi.org/10.1080/12795119.2002.9692430.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Naudin, Stéphane, Hervé Pella, Nicole Charlon, Jeanne Garric, and Pierre Bergot. "Détection de larves de poisson anormales par analyse d'images." Aquatic Living Resources 9, no. 3 (July 1996): 281–87. http://dx.doi.org/10.1051/alr:1996032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Got, P., B. Baleux, and M. Troussellier. "Dénombrements directs des bactéries des milieux aquatiques par microscopie en épifluorescence : comparaison entre un système d'analyse d'images automatisé (Mudicam®) et l'observation visuelle." Revue des sciences de l'eau 6, no. 3 (April 12, 2005): 269–84. http://dx.doi.org/10.7202/705176ar.

Full text
Abstract:
La technique de comptage par microscopie en épitluorescence est la méthode la plus performante pour dénombrer la totalité des bactéries présentes dans les milieux aquatiques. Cependant cette technique est longue, fastidieuse et subjective. Afin d'automatiser et de rendre objectif le dénombrement, le microscope à épifluorescence est couplé à un analyseur d'images. Si les systèmes d'analyse d'images sont utilisés pour les mesures de taille des bactéries aquatiques, très peu d'études font état de comparaison entre les dénombrements par analyse d'image et ceux réalisés de façon traditionnelle. Cet article présente les résultats des dénombrements de souches bactériennes de référence et de bactéries des milieux aquatiques, par la technique de microscopie en épifluorescence des cellules bactériennes marquées au DAPI, réalisés simultanément par observation microscopique visuelle (visuel) et par analyse d'images automatisée (automatique). Le système d'analyse d'images est composé d'une caméra vidéo (Lhesa LH40036) de sensibilité de 510-4 lux, d'une carte de numérisation (512 x 512 pixels, 8 bits, cyclope v 2.32, Digital vision) d'un micro-ordinateur 80-386 et d'un logiciel de dénombrement (Mudicam®. EAU). Le système est couplé à un microscope en épilluorescence Olympus BH2.Les dénombrements ont été réalisés d'une part sur des suspensions de souches bactériennes de référence (n = 30) à différents états physiologiques et sur des échantillons d'eaux (n = 50) d'origines diverses (fleuve, eaux saumâtre, marine et résiduaire). La comparaison des deux méthodes est réalisée par un modèle de régression linéaire et une analyse de variance. Les tests statistiques associés permettent de conclure à une bonne concordance entre les deux méthodes. A partir de l'ensemble des dénombrements réalisés, 18 d'entre eux pris au hasard ont été dénombrés de façon manuelle par deux opérateurs et par le système d'analyse d'image. Il apparaît que les différences de comptage les plus élevées correspondent aux dénombrements effectués par chacun des deux opérateurs. Ceci met en évidence que non seulement le système d'analyse d'image permet une quantification rapide des abondances bactériennes, mais en outre il supprime la subjectivité de l'opérateur tout en réalisant des dénombrements aussi précis.
APA, Harvard, Vancouver, ISO, and other styles
8

Tavernier, M., P. Cosserat, and A. Ruby. "Ajustement Des Trajectoires Obtenues Par Analyse D'Images En Ski De Fond." Archives of Physiology and Biochemistry 103, no. 3 (January 1, 1995): C127. http://dx.doi.org/10.3109/13813459509037338.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Kurtz, Camille, Pierre Gançarski, Anne Puissant, and Nicolas Passat. "Approches Multi-Hiérarchiques pour l'Analyse d'Images de Télédétection." Revue Française de Photogrammétrie et de Télédétection, no. 205 (February 21, 2014): 19–35. http://dx.doi.org/10.52638/rfpt.2014.10.

Full text
Abstract:
Au cours de la dernière décennie, la télédétection par imagerie satellitaire a connu plusieurs révolutions, liées d'une part à l'augmentation spectaculaire du nombre de dispositifs d'acquisition, et d'autre part aux progrès des capteurs tant en termes de résolutions spatiale et temporelle que spectrale. Dans ce contexte, de nouvelles problématiques sont apparues,notamment en traitement et analyse d'images. L'un des axes de recherche les plus prometteurs pour traiter ces problématiques s'appuie sur la notion de hiérarchie, qui peut se décliner sous plusieurs formes et ainsi permettre de traiter plusieurs types de tâches, du traitement de bas-niveau jusqu'à l'analyse de haut niveau. Dans cet article, nous décrivons certaines tendances récentes liées à ces approches hiérarchiques.
APA, Harvard, Vancouver, ISO, and other styles
10

Marsy, Guilhem, Flavien Vernier, William Castaings, Xavier Bodin, and Emmanuel Trouvé. "Détection automatique de zones en mouvement dans des séries d'images non recalées~: Application à la surveillance des mouvements gravitaires." Revue Française de Photogrammétrie et de Télédétection, no. 217-218 (September 21, 2018): 25–32. http://dx.doi.org/10.52638/rfpt.2018.413.

Full text
Abstract:
Dans le domaine des géosciences, l'utilisation d'appareils photographiques automatiques fixes pour la surveillance des mouvements gravitaires est de plus en plus courante. Les séries d'images ainsi acquises permettent de suivre dans le temps l'évolution du mouvement étudié. Bien que les appareils soient fixes, on observe que les conditions du milieu extérieur peuvent entraîner un déplacement/décalage des images qui peut dépasser le déplacement dû au phénomène étudié. Nous proposons ici une méthode automatique qui analyse le déplacement apparent sur toute l'image afin de segmenter la scène en séparant les zones du terrain en mouvement des zones fixes. Nous illustrons la méthode sur une série d'images, acquises au cours de l'été 2016, du glacier rocheux du Laurichard (Hautes Alpes, France), dont les mouvements sont par ailleurs bien connus et étudiés.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Analyse d'images de document"

1

Tochon, Guillaume. "Analyse hiérarchique d'images multimodales." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT100/document.

Full text
Abstract:
Il y a un intérêt grandissant pour le développement d’outils de traitements adaptés aux images multimodales (plusieurs images de la même scène acquises avec différentes caractéristiques). Permettant une représentation plus complète de la scène, ces images multimodales ont de l'intérêt dans plusieurs domaines du traitement d'images, mais les exploiter et les manipuler de manière optimale soulève plusieurs questions. Cette thèse étend les représentations hiérarchiques, outil puissant pour le traitement et l’analyse d’images classiques, aux images multimodales afin de mieux exploiter l’information additionnelle apportée par la multimodalité et améliorer les techniques classiques de traitement d’images. Cette thèse se concentre sur trois différentes multimodalités fréquemment rencontrées dans le domaine de la télédétection. Nous examinons premièrement l’information spectrale-spatiale des images hyperspectrales. Une construction et un traitement adaptés de la représentation hiérarchique nous permettent de produire une carte de segmentation de l'image optimale vis-à-vis de l'opération de démélange spectrale. Nous nous concentrons ensuite sur la multimodalité temporelle, traitant des séquences d’images hyperspectrales. En utilisant les représentations hiérarchiques des différentes images de la séquence, nous proposons une nouvelle méthode pour effectuer du suivi d’objet et l’appliquons au suivi de nuages de gaz chimique dans des séquences d’images hyperspectrales dans le domaine thermique infrarouge. Finalement, nous étudions la multimodalité sensorielle, c’est-à-dire les images acquises par différents capteurs. Nous appuyant sur le concept des tresses de partitions, nous proposons une nouvelle méthodologie de segmentation se basant sur un cadre de minimisation d’énergie
There is a growing interest in the development of adapted processing tools for multimodal images (several images acquired over the same scene with different characteristics). Allowing a more complete description of the scene, multimodal images are of interest in various image processing fields, but their optimal handling and exploitation raise several issues. This thesis extends hierarchical representations, a powerful tool for classical image analysis and processing, to multimodal images in order to better exploit the additional information brought by the multimodality and improve classical image processing techniques. %when applied to real applications. This thesis focuses on three different multimodalities frequently encountered in the remote sensing field. We first investigate the spectral-spatial information of hyperspectral images. Based on an adapted construction and processing of the hierarchical representation, we derive a segmentation which is optimal with respect to the spectral unmixing operation. We then focus on the temporal multimodality and sequences of hyperspectral images. Using the hierarchical representation of the frames in the sequence, we propose a new method to achieve object tracking and apply it to chemical gas plume tracking in thermal infrared hyperspectral video sequences. Finally, we study the sensorial multimodality, being images acquired with different sensors. Relying on the concept of braids of partitions, we propose a novel methodology of image segmentation, based on an energetic minimization framework
APA, Harvard, Vancouver, ISO, and other styles
2

Chenoune, Yasmina. "Estimation des déformations myocardiques par analyse d'images." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0014/document.

Full text
Abstract:
Les travaux présentés dans cette thèse s'inscrivent dans le contexte du traitement des images cardiaques et l'étude de la fonction contractile du coeur, pour une meilleure compréhension de physiopathologie cardiaque et l'aide au diagnostic. Nous avons implémenté une méthode de segmentation des parois endocardiques sur des ciné-IRM non marquées. Nous avons utilisé une approche fondée sur les ensembles de niveaux, avec une formulation basée-région qui donne des résultats satisfaisants sur des cas sains et pathologiques. Nous avons proposé une méthode pratique pour la quantification des déformations segmentaires afin decaractériser la contractilité myocardique. La méthode a fait l'objet d'une validation clinique par l'expertise de médecins et par comparaison à la méthode HARP sur des IRM marquées. Pour améliorer la précision des mesures, nous avons proposé un algorithme de recalage iconique multimodal IRM/TDM, utilisant la maximisation de l'information culturelle. Nous l'avons appliqué à la localisation de coupes petit-axe dans des volumes TDM avec des résultats encourageants. Ce travail a pour perspective son application à l'obtention de séquences TDM de hautes résolutions spatiale et temporelle
The work presented in this thesis is related to the cardiac images processing and the cardiac contractile function study, for a better comprehension of cardiac physiopathology and diagnosis. We implemented a method for the segmentation of the endocardial walls on standard MRI without tags. We used an approach based on the level set method, with a region-based formulation which gives satisfactory results on healthy and pathological cases. We proposed a practical method for the quantification of the segmental deformations in order to characterize the myocardial contractility. The method was clinically validated by the assesment of doctors and by comparison with the HARP method on tagget MRI. To improve the measurements precision, we proposed an iconic MRI/CT multimodal registration algorithm, using the maximization of the mutual information. We applied it to the localization of short-axis slices in CT volumes with good results. This work has as prospect its application to obtain high spatial and temporal resolutions CT sequences
APA, Harvard, Vancouver, ISO, and other styles
3

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S001/document.

Full text
Abstract:
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
APA, Harvard, Vancouver, ISO, and other styles
4

Bertrand, Sarah. "Analyse d'images pour l'identification multi-organes d'espèces végétales." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2127/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre de l’ANR ReVeRIES dont l’objectif est d’utiliser les technologies mobiles pour aider l’homme à mieux connaître son environnement et notamment les végétaux qui l’entourent. Plus précisément, le projet ReVeRIES s’appuie sur une application mobile, nommée Folia développée dans le cadre du projet ANR ReVeS, capable de reconnaître les espèces d’arbres et arbustes à partir de photos de leurs feuilles. Ce prototype se différencie des autres outils car il est capable de simuler le comportement du botaniste. Dans le contexte du projet ReVeRIES, nous nous proposons d’aller beaucoup plus loin en développant de nouveaux aspects : la reconnaissance multimodale d’espèces, l’apprentissage par le jeu et les sciences citoyennes. L’objet de cette thèse porte sur le premier de ces trois aspects, à savoir l’analyse d’images d’organes de végétaux en vue de l’identification.Plus précisément, nous considérons les principaux arbres et arbustes, endémiques ou exotiques, que l’on trouve en France métropolitaine. L’objectif de cette thèse est d’étendre l’algorithme de reconnaissance en prenant en compte d’autres organes que la feuille. Cette multi-modalité est en effet essentielle si nous souhaitons que l’utilisateur apprenne et s’entraîne aux différentes méthodes de reconnaissance, pour lesquelles les botanistes utilisent la variété des organes (i.e. les feuilles, les fleurs, les fruits et les écorces). La méthode utilisée par Folia pour la reconnaissance des feuilles étant dédiée, car simulant le botaniste, ne peut s’appliquer directement aux autres organes. Ainsi, de nouveaux verrous se posent, tant au niveau dutraitement des images qu’au niveau de la fusion de données.Une première partie de la thèse a été consacrée à la mise en place de méthodes de traitement d’images pour l’identification des espèces végétales. C’est l’identification des espèces d’arbres à partir d’images d’écorces qui a été étudiée en premier. Les descripteurs développés prennent en compte la structure de l’écorce en s’inspirant des critères utilisés par les botanistes. Les fruits et les fleurs ont nécessité une étape de segmentation avant leur description. Une nouvelle méthode de segmentation réalisable sur smartphone a été développée pour fonctionner sur la grande variabilité des fleurs et des fruits. Enfin, des descripteurs ont été extraits sur les fruits et les fleurs après l’étape de segmentation. Nous avons décidé de ne pas faire de séparation entre les fleurs et les fruits car nous avons montré qu’un utilisateur novice en botanique ne sait pas toujours faire la différence entre ces deux organes sur des arbres dits «d’ornement» (non fruitiers). Pour les fruits et les fleurs, la prédiction n’est pas seulement faite sur les espèces mais aussi sur les genres et les familles, groupes botaniques traduisant d’une similarité entre ces organes.Une deuxième partie de la thèse traite de la combinaison des descripteurs des différents organes que sont les feuilles, les écorces, les fruits et les fleurs. En plus des méthodes de combinaison basiques, nous proposons de prendre en compte la confusion entre les espèces, ainsi que les prédictions d’appartenance aux taxons botaniques supérieurs à l’espèce.Enfin, un chapitre d’ouverture est consacré au traitement de ces images par des réseaux de neurones à convolutions. En effet, le Deep-Learning est de plus en plus utilisé en traitement d’images, notamment appliqué aux organes végétaux. Nous proposons dans ce contexte de visualiser les filtres de convolution extrayant de l’information, afin de faire le lien entre lesinformations extraites par ces réseaux et les éléments botaniques
This thesis is part of the ANR ReVeRIES, which aims to use mobile technologies to help people better understand their environment and in particular the plants that surround them. More precisely, the ReVeRIES project is based on a mobile application called Folia developed as part of the ANR ReVeS project and capable of recognising tree and shrub species based on photos of their leaves. This prototype differs from other tools in that it is able to simulate the behaviour of the botanist. In the context of the ReVeRIES project, we propose to go much further by developing new aspects: multimodal species recognition, learning through play and citizen science. The purpose of this thesis is to focus on the first of these three aspects, namelythe analysis of images of plant organs for identification.More precisely, we consider the main trees and shrubs, endemic or exotic, found in metropolitan France. The objective of this thesis is to extend the recognition algorithm by taking into account other organs in addition to the leaf. This multi-modality is indeed essential if we want the user to learn and practice the different methods of recognition for which botanists use the variety of organs (i.e. leaves, flowers, fruits and bark). The method used by Folia for leaf recognition being dedicated, because simulating the work of a botanist on the leaf, cannot be applied directly to other organs. Thus, new challenges are emerging, both in terms of image processing and data fusion.The first part of the thesis was devoted to the implementation of image processing methods for the identification of plant species. The identification of tree species from bark images was the first to be studied. The descriptors developed take into account the structure of the bark inspired from the criteria used by botanists. Fruits and flowers required a segmentation step before their description. A new segmentation method that can be used on smartphones has been developed to work in spite of the high variability of flowers and fruits. Finally, descriptors were extracted on fruits and flowers after the segmentation step. We decided not to separate flowers and fruits because we showed that a user new to botany does not always know the difference between these two organs on so-called "ornamental" trees (not fruit trees). For fruits and flowers, prediction is not only made on their species but also on their genus and family, botanical groups reflecting a similarity between these organs.The second part of the thesis deals with the combination of descriptors of the different organs: leaves, bark, fruits and flowers. In addition to basic combination methods, we propose to consider the confusion between species, as well as predictions of affiliations in botanical taxa higher than the species.Finally, an opening chapter is devoted to the processing of these images by convolutional neural networks. Indeed, Deep Learning is increasingly used in image processing, particularly for plant organs. In this context, we propose to visualize the learned convolution filters extracting information, in order to make the link between the information extracted by these networks and botanical elements
APA, Harvard, Vancouver, ISO, and other styles
5

Foare, Marion. "Analyse d'images par des méthodes variationnelles et géométriques." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM043/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et à la résolution numérique du problème de Mumford-Shah avec anisotropie pour la restauration et la segmentation d'image. Cette fonctionnelle possède en effet la particularité de reconstruire une image dégradée tout en extrayant l'ensemble des contours des régions d'intérêt au sein de l'image. Numériquement, on utilise l'approximation d'Ambrosio-Tortorelli pour approcher un minimiseur de la fonctionnelle de Mumford-Shah. Elle Gamma-converge vers cette dernière et permet elle aussi d'extraire les contours. Les implémentations avec des schémas aux différences finies ou aux éléments finis sont toutefois peu adaptées pour l'optimisation de la fonctionnelle d'Ambrosio-Tortorelli. On présente ainsi deux nouvelles formulations discrètes de la fonctionnelle d'Ambrosio-Tortorelli à l'aide des opérateurs et du formalisme du calcul discret. Ces approches sont utilisées pour la restauration d'images ainsi que pour le lissage du champ de normales et la détection de saillances des surfaces digitales de l'espace. Nous étudions aussi un second problème d'optimisation de forme similaire avec conditions aux bords de Robin. Nous démontrons dans un premier temps l'existence et la régularité partielle des solutions, et dans un second temps deux approximations par Gamma-convergence pour la résolution numérique du problème. L'analyse numérique montre une nouvelle fois les difficultés rencontrées pour la minimisation d'approximations par Gamma-convergence
In this work, we study both theoretical and numerical aspects of an anisotropic Mumford-Shah problem for image restoration and segmentation. The Mumford-Shah functional allows to both reconstruct a degraded image and extract the contours of the region of interest. Numerically, we use the Amborsio-Tortorelli approximation to approach a minimizer of the Mumford-Shah functional. It Gamma-converges to the Mumford-Shah functional and allows also to extract the contours. However, the minimization of the Ambrosio-Tortorelli functional using standard discretization schemes such as finite differences or finite elements leads to difficulties. We thus present two new discrete formulations of the Ambrosio-Tortorelli functional using the framework of discrete calculus. We use these approaches for image restoration and for the reconstruction of normal vector field and feature extraction on digital data. We finally study another similar shape optimization problem with Robin boundary conditions. We first prove existence and partial regularity of solutions and then construct and demonstrate the Gamma-convergence of two approximations. Numerical analysis shows once again the difficulties dealing with Gamma-convergent approximations
APA, Harvard, Vancouver, ISO, and other styles
6

Nguyen, Thanh Phuong. "Etude des courbes discrètes : applications en analyse d'images." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10095/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'étude des courbes discrètes et ses applications en analyse d'images. Nous avons proposé une amélioration de l'estimation de courbure reposant sur le cercle circonscrit. Celle-ci repose sur la notion de segment flou maximal d'épaisseur [nu] et sur la décomposition d'une courbe discrète en sa séquence de segments flous maximaux. Par la suite, nousavons appliqué cette idée en 3D afin d'estimer la courbure et la torsion discrète en chaque point d'une courbe 3D. Au niveau de l'application, nous avons développé une méthode rapide et fiable pour détecter les points dominants dans une courbe 2D. Un point dominant est un point dont la courbure est localement maximale. Les points dominants jouent un rôle très important dans la reconnaissance de formes. Notre méthode utilise un paramètre qui est l'épaisseur des segments flous maximaux. Reposant sur cette nouvelle méthode de détection des points dominants, nous avons développé des méthodes sans paramètres de détection des points dominants. Celles-ci se basent sur une approche multi-épaisseur. D'autre part, nous nous intéressons particulièrement au cercles et arcs discrets. Une méthode linéaire a été développé pour reconnaître des cercles et arcs discrets. Puisnous avons fait évoluer cette méthode afin de travailler avec des courbes bruitées en utilisant une méthode de détection du bruit. Nous proposons aussi une mesure de circularité. Une méthode linéaire qui utilise cette mesure a été aussi développée pour mesurer la circularité des courbes fermées. Par ailleurs, nous avons proposé une méthode rapide pour décomposer des courbes discrètes en arcs et en segments de droite
In this thesis, we are interested in the study of discrete curves and its applications in image analysis. We have proposed an amelioration of curvature estimation based on circumcircle. This method is based on the notion of blurred segment of width [nu] and on the decomposition of a curve into the sequence of maximal blurred segment of width [nu]. Afterwards, we have applied this idea in 3D to estimate the discrete curvature and torsion at each point of a 3D curve. Concerning the applications, we have developed a rapid et reliable method to detect dominant points of a 2D curve. A dominant point is a point whose the curvature value is locally maximum. The dominant points play an important role in pattern recognition. Our method uses a parameter: the width of maximal blurred segments. Based on this novel method of dominant point detection, we proposed free-parameter methods for polygonal representation. They are based on a multi-width approach. Otherwise, we are interested in discrete arcs and circles. A linear method has been proposed for the recognition of arcs and circles. We then develop a new method for segmentation of noisy curves into arcs based on a method of noise detection. We also proposed a linear method to measure the circularity of closed curves. In addition, we have proposed a robust method to decompose a curve into arcs and line segments
APA, Harvard, Vancouver, ISO, and other styles
7

Harouna, Seybou Aboubacar. "Analyse d'images couleurs pour le contrôle qualité non destructif." Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT2282/document.

Full text
Abstract:
La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance
Color is a major criterion for many sectors to identify, to compare or simply to control the quality of products. This task is generally assumed by a human operator who performs a visual inspection. Unfortunately, this method is unreliable and not repeatable due to the subjectivity of the operator. To avoid these limitations, a RGB camera can be used to capture and extract the photometric properties. This method is simple to deploy and permits a high speed control. However, it's very sensitive to the metamerism effects. Therefore, the reflectance measurement is the more reliable solution to ensure the conformity between samples and a reference. Thus in printing industry, spectrophotometers are used to measure uniform color patches printed on a lateral band. For a control of the entire printed surface, multispectral cameras are used to estimate the reflectance of each pixel. However, they are very expensive compared to conventional cameras. In this thesis, we study the use of an RGB camera for the spectral reflectance estimation in the context of printing. We propose a complete spectral description of the reproduction chain to reduce the number of measurements in the training stages and to compensate for the acquisition limitations. Our first main contribution concerns the consideration of the colorimetric limitations in the spectral characterization of a camera. The second main contribution is the exploitation of the spectral printer model in the reflectance estimation methods
APA, Harvard, Vancouver, ISO, and other styles
8

Séropian, Audrey. "Analyse de document et identification de scripteurs." Toulon, 2003. http://www.theses.fr/2003TOUL0010.

Full text
Abstract:
Le thème de notre étude se limite à des formulaires dont certains champs sont remplis à l'aide d'une écriture manuscrite. Après avoir élaboré un modèle de formulaire utilisable dans le contexte d'un nombre fini de scripteurs, notre but est ici de créer un module d'identification de scripteur par analyse fractale du style. L'identification de chaque scripteur repose sur l'extraction d'un ensemble de caractéristiques qui doivent être propres à l'auteur du document. Les propriétés d'autosimilarité dans l'écriture sont exploitées. Pour cela, des formes invariantes caractérisant l'écriture d'un scripteur sont extraites au cours d'un processus de compression fractale. Ces formes sont organisées dans une base de référence permettant d'analyser une écriture inconnue dans un processus de Pattern Matching. Les résultats de l'analyse sont évalués par le rapport signal/bruit. Ainsi, il permet en fonction d'un ensemble de bases de référence, d'identifier Fauteur d'un texte
The axe of our study is limited to forms some areas of which are filled by cursive handwriting. After we elaborated a model of form used in a context of finite number of writers, our aim is here to create a process of identification of writer through fractal analysis of handwritten style writer. The identification of each writer depends on the extraction of a set of features that have to be intrinsic of the author of the document. The properties of autosimilarity in the handwriting are used. Some invariant patterns are extracted by the process of fractal compression to characterize the handwriting of the writer. These patterns are organized in a reference base to allow the analyse of an unknown handwriting through a Pattern matching process. The results of this analyze are evaluated by the signal to noise ratio. We can identify the text of a writer that we look for the identity of the author according to the set of reference bases
APA, Harvard, Vancouver, ISO, and other styles
9

Amur, Khua Bux. "Contrôle adaptatif, techniques de régularisation et applications en analyse d'images." Thesis, Metz, 2011. http://www.theses.fr/2011METZ011S/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik
An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
APA, Harvard, Vancouver, ISO, and other styles
10

Alvarez, padilla Francisco Javier. "AIMM - Analyse d'Images nucléaires dans un contexte Multimodal et Multitemporel." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS017/document.

Full text
Abstract:
Ces travaux de thèse portent sur la proposition de stratégies de segmentation des tumeurs cancéreuses dans un contexte multimodal et multitemporel. La multimodalité fait référence au couplage de données TEP/TDM pour exploiter conjointement les deux sources d’information pour améliorer les performances de la segmentation. La multitemporalité fait référence à la disposition des images acquises à différents dates, ce qui limite une correspondance spatiale possible entre elles.Dans une première méthode, une structure arborescente est utilisée pour traiter et pour extraire des informations afin d’alimenter une segmentation par marche aléatoire. Un ensemble d'attributs est utilisé pour caractériser les nœuds de l'arbre, puis le filtrer et projeter des informations afin de créer une image vectorielle. Un marcheur aléatoire guidé par les données vectorielles provenant de l'arbre est utilisé pour étiqueter les voxels à des fins de segmentation.La deuxième méthode traite le problème de la multitemporalité en modifiant le paradigme de voxel à voxel par celui de nœud à nœud. Deux arbres sont alors modélisés à partir de la TEP et de la TDM avec injection de contraste pour comparer leurs nœuds par une différence entre leurs attributs et ainsi correspondre à ceux considérés comme similaires en supprimant ceux qui ne le sont pas.Dans une troisième méthode, qui est une extension de la première, l'arbre calculé à partir de l'image est directement utilisé pour mettre en œuvre l'algorithme développé. Une structure arborescente est construite sur la TEP, puis les données TDM sont projetées sur l’arbre en tant qu’informations contextuelles. Un algorithme de stabilité de nœud est appliqué afin de détecter et d'élaguer les nœuds instables. Des graines, extraites de la TEP, sont projetées dans l'arbre pour fournir des étiquettes (pour la tumeur et le fond) à ses nœuds correspondants et les propager au sein de la hiérarchie. Les régions évaluées comme incertaines sont soumises à une méthode de marche aléatoire vectorielle pour compléter l'étiquetage de l'arbre et finaliser la segmentation
This work focuses on the proposition of cancerous tumor segmentation strategies in a multimodal and multitemporal context. Multimodal scope refers to coupling PET/CT data in order to jointly exploit both information sources with the purpose of improving segmentation performance. Multitemporal scope refers to the use of images acquired at different dates, which limits a possible spatial correspondence between them.In a first method, a tree is used to process and extract information dedicated to feed a random walker segmentation. A set of region-based attributes is used to characterize tree nodes, filter the tree and then project data into the image space for building a vectorial image. A random walker guided by vectorial tree data on image lattice is used to label voxels for segmentation.The second method is geared toward multitemporality problem by changing voxel-to-voxel for node-to-node paradigm. A tree structure is thus applied to model two hierarchical graphs from PET and contrast-enhanced CT, respectively, and compare attribute distances between their nodes to match those assumed similar whereas discarding the others.In a third method, namely an extension of the first one, the tree is directly involved as the data-structure for algorithm application. A tree structure is built on the PET image, and CT data is then projected onto the tree as contextual information. A node stability algorithm is applied to detect and prune unstable attribute nodes. PET-based seeds are projected into the tree to assign node seed labels (tumor and background) and propagate them by hierarchy. The uncertain nodes, with region-based attributes as descriptors, are involved in a vectorial random walker method to complete tree labeling and build the segmentation
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Analyse d'images de document"

1

Chassery, Jean-Marc. Géométrie discrète en analyse d'images. Paris: Hermès, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

1972-, Richard Laurent, ed. Bali a la varicelle. Paris: Flammarion-Père Castor, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Stockinger, Peter. Le document audiovisuel: Procédures de description et exploitation. [Paris]: Hermès science publications, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

J, Lavreau, ed. Spectrométrie à haute résolution: In situ et analyse d'images Landsat et Spot au Burundi. Tervuren, Belgique: Musée royal de l'Afrique centrale, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Education, Ontario Ministry of. Les années de spécialisation: Document de consultation : analyse des réponses des francophones. Toronto: Ministère de l'éducation et de la formation, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ontario. Ministère de l'éducation et de la formation. Les années de spécialisation: Document de consultation : analyse des réponses des francophones. Toronto, Ont: Ministère de l'éducation et de la formation, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

D, Barni Mauro Ph, ed. Document and image compression. Boca Raton, FL: CRC/Taylor & Francis, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Image and video processing in the compressed domain. Boca Raton: CRC Press, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Gabon, ed. Analyse de programme et élaboration de stratégies en matière de population (APES): Document de base. Libreville: République gabonaise, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Directorate, Canada Technology Development, and Canada Environment Canada, eds. Guidance document on collection and preparation of sediments for physicochemical characterization and biological testing. Ottawa, Ont: Environment Canada, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Analyse d'images de document"

1

Castellano Martínez, José María. "Wine, Tourism and Translation." In Text and Wine, 41–56. Amsterdam: John Benjamins Publishing Company, 2023. http://dx.doi.org/10.1075/ivitra.38.03cas.

Full text
Abstract:
This chapter aims to analyse the promotional tourist texts motivated by wine consumption focused on tourists. These texts, considered as communicating units in translation, acquire a special value when the framework of meanings and images are developed in tourist contexts such as the enotourism –a context in another context–. According to this, we study the Turespaña brochure “Wine routes around Spain” (Rutas del vino por España) and its linguistics versions in four different languages (French, English, German and Spanish). Once the peripherical and the core texts of the document have been analysed, we point out the most relevant translatological divergences among the linguistic versions, paying special attention to the translation techniques that can be appreciated by comparing the texts. To conclude, this work outlines how the enotourist texts can be considered of a certain degree of specialization because of the context where it is inscribed in terms of communication and translation.
APA, Harvard, Vancouver, ISO, and other styles
2

Grassia, Maria Gabriella, Marina Marino, Rocco Mazza, Michelangelo Misuraca, and Agostino Stavolo. "Topic modeling for analysing the Russian propaganda in the conflict with Ukraine." In Proceedings e report, 245–50. Florence: Firenze University Press and Genova University Press, 2023. http://dx.doi.org/10.36253/979-12-215-0106-3.43.

Full text
Abstract:
The conflict between Ukraine and Russia is changing Europe, which is facing a crisis destined to reshape the internal and external relations of the continent, shifting international balances. In this contribution, we show preliminary results on the monitoring of Russian propaganda. In fact, we analysed the content of online newspapers (Strategic Culture Foundation, Global research, News Front, South Front, Katehon, Geopolitics) used as propaganda tools of the Russian government. The newspapers create and amplify the narrative of the conflict, transmitting information filtered by the Kremlin to advance Putin's propaganda about the war. The objective of the work, therefore, is to understand what were the main themes that the Russian media used to motivate the conflict in Ukraine. Specifically, the proposed analysis runs from March 2021, when the Russian military began moving weapons and equipment into Crimea, to the end of March 2022, the day of the first negotiations in Istanbul. In this regard, we used topic modeling techniques to analyse textual content that uncovers the latent thematic structure in document collections to identify emerging topics.
APA, Harvard, Vancouver, ISO, and other styles
3

Augustine, Tshuma Lungile, Trust Matsilele, and Mbongeni Jonny Msimanga. "‘Weapons of Oppressors’: COVID-19 Regulatory Framework and its Impact on Journalism Practices in Southern Africa." In Health Crises and Media Discourses in Sub-Saharan Africa, 253–66. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-95100-9_15.

Full text
Abstract:
AbstractThe chapter examines the regulatory frameworks that were put in place by governments in the Southern African Development Community (SADC) region to combat the outbreak of COVID-19 and the impact it had on journalism practices in the region. African governments with the help of World Health Organization (WHO) guidelines crafted laws and policies which prohibited gatherings. These measures limited the conduct of journalism, i.e. gathering and dissemination of news, during the pandemic. While these laws were implemented to avert the virus, we argue in this chapter that some regimes used the pandemic to muzzle the media. We analyse laws that were gazetted in Zimbabwe, Tanzania, and South Africa to combat/ address COVID-19, and evaluate their impact on the practice of journalism in the region through the lens of securitisation theory. The securitisation theory indicates that by declaring something or phenomenon a threat, it ensures that such a phenomenon is moved out of the sphere of normal politics into the realm of emergency politics, where it can be dealt with without the normal (democratic) rules and regulations of policymaking. Methodologically, the chapter uses document analysis which is the systematic evaluation and review of documents. The study found that Zimbabwe and Tanzania enacted laws meant to restrict journalistic practice and information management flow under the cover of the pandemic. The laws enacted were targeted at critical and oppositional media. South Africa was a complete opposite as journalists were capacitated by the state to function properly during the pandemic even when other citizens’ rights were limited during the lockdown period.
APA, Harvard, Vancouver, ISO, and other styles
4

Beretka, Katinka. "Critical Analysis of the Linguistic Rights Strategies of the Hungarian National Minority Council in Serbia." In Realising Linguistic, Cultural and Educational Rights Through Non-Territorial Autonomy, 121–37. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-19856-4_9.

Full text
Abstract:
AbstractThe Hungarian National Minority Council (HNMC)—the non-territorial autonomy body of Hungarians living in Serbia—has developed its activities since the first democratic elections held in 2010, to include a creative strategic framework in the field of official languages of communication in Hungary. Its first mid-term (five-year) strategy for the development of the linguistic rights of Hungarians was adopted in 2012, its primary goal being to improve the legal background for official communication in minority languages in general in the country, to enhance the efficiency and effectiveness of the application of the relevant rules by the public authorities and to develop the linguistic awareness of Hungarian national minorities by raising their awareness of language rights. These strategic goals were supported by a range of programmes primarily focused on information, financing, providing law enforcement and assistance, etc.; some of them were copied by other minority councils in Serbia as examples of good practice. The second Linguistic Rights Strategy was adopted in 2021, after a delay of a few years. Besides containing similar provisions as the first document from 2012, with respect to strategic programmes in the field of official communications, its subject matter also covers some other spheres, such as the use of Hungarian in education, information or culture, and it relies much more on the benefits of information technology. Because each strategy is only worth as much as it has accomplished, this paper aims to present and critically analyse the valid Linguistic Rights Strategy of the HNMC in light of its possible practical implications in the future, with special regard to the existing experience gained during the realisation of the previous strategy.
APA, Harvard, Vancouver, ISO, and other styles
5

MULLER, Catherine. "Analyse critique d’images et production visuelle créative." In "L'interculturel" dans l’enseignement supérieur, 115–30. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.4999.

Full text
Abstract:
L'article interroge la façon dont la réception d'images médiatiques et la production de documents visuels permettent de développer chez les apprenants de langue une réflexivité et une attitude critique, entendues comme des compétences interculturelles. Le projet qui fait l'objet de l'analyse a été mis en œuvre dans des cours de français enseigné comme langue étrangère en contexte universitaire auprès d'un public en mobilité académique. Grâce au dispositif, les étudiants se sont interrogés sur les représentations véhiculées par les images introduites. Invités à élaborer à leur tour une affiche ou une vidéo remettant en cause des stéréotypes, ils se sont employés à lutter contre des clichés de diverses natures. La présentation de ces productions a également donné lieu à un positionnement critique au sein du groupe et à des négociations entre pairs.
APA, Harvard, Vancouver, ISO, and other styles
6

KARBOU, Fatima, Guillaume JAMES, Philippe DURAND, and Abdourrahmane M. ATTO. "Seuils et distances pour la détection de neige avec les séries d’images Sentinel-1." In Détection de changements et analyse des séries temporelles d’images 1, 139–58. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch5.

Full text
Abstract:
Dans ce chapitre, nous abordons l'estimation de l'étendue de la neige humide à l'aide de la méthode de seuillage de rétrodiffusion de Nagler. Nous examinons également certaines autres options intéressantes pour améliorer la détection de neige humide en explorant l'utilisation de métriques de similarité (comme le rapport de corrélation croisée normalisée, la distance de Hausdorff et certaines autres fonctions de distance d'images plus raffinées). Plusieurs distances sont calculées et testées sur une base de données de séries chronologiques d'images Sentinel-1 SAR de différentes tailles au-dessus des Alpes françaises. Le métriques résultantes sont évoquées et comparées à la méthode de Nagler, ainsi qu'à des données indépendantes.
APA, Harvard, Vancouver, ISO, and other styles
7

ATTO, Abdourrahmane M., Fatima KARBOU, Sophie GIFFARD-ROISIN, and Lionel BOMBRUN. "Clustering fonctionnel de séries d’images par entropies relatives." In Détection de changements et analyse des séries temporelles d’images 1, 121–38. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch4.

Full text
Abstract:
Ce chapitre traite l'extraction d'attributs à partir d'ondelettes et de filtres ConvNet (réseaux de neurones à convolution) pour l'analyse non supervisée de séries chronologiques d'images. Nous exploitons les capacités des ondelettes et des filtres neuro-convolutifs à capturer des propriétés d'invariance non-triviales, ainsi que les nouvelles solutions de centroïdes proposées dans ce chapitre, pour l'analyse d'attributs de hauts niveaux par entropie relative. La détection d'anomalies et le clustering fonctionnel d'évolution sont développés à partir de ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
8

CONRADSEN, Knut, Henning SKRIVER, Morton J. CANTY, and Allan A. NIELSEN. "Détection de séries de changements dans des séries d’images SAR polarimétriques." In Détection de changements et analyse des séries temporelles d’images 1, 41–81. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch2.

Full text
Abstract:
Dans ce chapitre, nous considèrerons le problème de la détection de changements dans une série chronologique d'images SAR (radar à synthèse d'ouverture) polarimétriques à l'aide de la représentation en covariance de données SAR polarimétriques multivisées. Les pixels seront alors représentés par des matrices hermitiennes complexes suivant une distribution de Wishart. La chaîne de détection de changements consiste en un test omnibus destiné à tester l'égalité sur la totalité du laps de temps, puis en une factorisation permettant d'évaluer individuellement les dates où un changement a eu lieu. La méthode est aisément étendue à la détection de changements de zones "homogènes", et nous introduisons enfin un concept pour le changement directionnel utilisant la relation d'ordre de Lowner.
APA, Harvard, Vancouver, ISO, and other styles
9

ZANETTI, Massimo, Francesca BOVOLO, and Lorenzo BRUZZONE. "Statistiques par différences pour les changements multispectraux." In Détection de changements et analyse des séries temporelles d’images 1, 247–303. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch9.

Full text
Abstract:
Dans ce chapitre, nous introduisons deux modèles statistiques pour la description de la distribution des vecteurs de différences spectrales, et nous en tirons des méthodes de détection de changements basées sur une différence d'images. Le chapitre introduit d'abord le modèle standard à deux classes inchangé/changé pour la classification binaire. Lorsqu'on considère les informations de module, le modèle à deux classes peut être décrit par un mélange de distributions Rayleigh-Rice. L'estimation de paramètres de ce mélange est une tâche non triviale car ce modèle est non conventionnel. Par conséquent, une version de l'algorithme espérance-maximisation (EM), qui est adaptée spécifiquement au mélange Rayleigh-Rice, est présentée. Le chapitre propose alors une généralisation du modèle à deux classes inchangé/changé au cas multiclasse.
APA, Harvard, Vancouver, ISO, and other styles
10

PHAM, Minh-Tan, and Grégoire MERCIER. "Détection de changements sur les graphes de séries SAR." In Détection de changements et analyse des séries temporelles d’images 1, 183–219. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch7.

Full text
Abstract:
Nous proposons d'exploiter l'interaction entre des points-clés/caractéristiques dans un modèle de graphe pondéré pour développer une nouvelle méthode de suivi de texture afin de traiter la tâche de détection de changements. Dans ce chapitre, nous montrons que les points-clés d'extrema locaux sont susceptibles de capturer les informations radiométriques et contextuelles importantes de l'image. Leur interaction peut être codée par un modèle de graphe basé sur leurs mesures de similarité, qui ne néessitent que des petits patchs de pixels autour des point&-clés. Qui plus est, le graphe construit est capable de caractériser à la fois des informations d'intensité et de géométrie à partir du contenu d'images, donc pertinentes pour le suivi de texture. À cette fin, si un graphe est construit à partir d'une des deux images SAR, le niveau de changement entre celle&-ci peut être mesuré d'après le degré auquel l'information de l'autre image reste conforme à la structure du graphe en question. Cette remarque conduit à notre stratégie proposée de suivi de texture pour la détection de changements.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Analyse d'images de document"

1

Delgado Quirós, Lorena Joaquina, and José Luis Ortega. "Comparing bibliographic descriptions in seven free-access databases." In 27th International Conference on Science, Technology and Innovation Indicators (STI 2023). International Conference on Science, Technology and Innovation Indicators, 2023. http://dx.doi.org/10.55835/6436c590b3340c364be5b2c7.

Full text
Abstract:
This communication aims to analyse the information that a large set of free-access databases (i.e., Crossref, Dimensions, Microsoft Academic, OpenAlex, Scilit, Semantic Scholar, The Lens) provides about indexed publications in their databases. Using a random sample of 116k publications from Crossref, each database was queried to retrieve the same document list with the purpose of comparing the metadata of their publications. The results show that the completeness degree is different between databases and that the search engines show more problems to extract abstracts and assign document typologies. Dimensions is the product that obtain the highest completeness percentages in abstracts, open access documents, bibliographic data and document types.
APA, Harvard, Vancouver, ISO, and other styles
2

Rathnayaka, L. S. D., B. K. M. Nadeetharu, and U. Kulatunga. "Quantity surveyor’s perspective on document management in construction projects: an exploratory study in Sri Lanka." In World Construction Symposium - 2023. Ceylon Institute of Builders - Sri Lanka, 2023. http://dx.doi.org/10.31705/wcs.2023.73.

Full text
Abstract:
Electronic Document Management Systems (EDMS) have become increasingly popular in recent years as construction organisations seek to improve document management efficiency, productivity, and security. However, the Quantity Surveyor (QS), a key stakeholder responsible for construction documentation management, has less adapted to it in the Sri Lankan context. Accordingly, this study used twelve expert interviews to identify the status of documentation management in the Sri Lankan construction industry from a QS perspective. Manual content analysis was used to analyse the findings. Despite the disadvantages, the conventional DMS approach is still prevalent in the Sri Lankan context. Despite the QSs having a basic understanding of the EDMS approach and being willing to transit to EDMS, they are less familiar with EDMS software. In addition, project size, limited availability of technical facilities, and the reluctance of government and professionals cause to continue this adaptation are still a barrier. The findings of this research can be based on future studies on different stakeholder perspectives. Since conventional DMS is proved to be a less efficient solution for the document management of construction projects and EDMS is also difficult to be initiated, these findings can be benchmarked by policymakers to address the identified causes of the issue.
APA, Harvard, Vancouver, ISO, and other styles
3

Bianchi, Annamaria, Camilla Salvatore, and Silvia Biffignandi. "Communicating Corporate Social Responsibility through Twitter: a topic model analysis on selected companies." In CARMA 2020 - 3rd International Conference on Advanced Research Methods and Analytics. Valencia: Universitat Politècnica de València, 2020. http://dx.doi.org/10.4995/carma2020.2020.11646.

Full text
Abstract:
Social media are fundamental in creating new opportunities for firms and they represent a relevant tool for the communication and the engagement with customers. The purpose of this paper is to analyse the communication of Corporate Social Responsibility (CSR) activities on Twitter. We consider the listed companies included in the Dow Jones Industrial Average Index and we implement a topic model analysis on their timelines. In order to identify the topic discussed, their correlation, and their evolution over time and sectors,we apply the Structural Topic Model algorithm, which allows estimating the model including document-level metadata. This model proves to be a powerful tool for topic detection and for estimating the effects of document-level metadata. Indeed, we find that the topics are overall well identified, and the model allows catching signals from the data. Finally, we discuss issues related to the validity of the analysis, including data quality problems.
APA, Harvard, Vancouver, ISO, and other styles
4

ŠVAGŽDIENĖ, Biruta, and Dalia PERKUMIENĖ. "EVALUATION OF COMPETITIVENESS FACTORS OF RURAL COMMUNITIES." In RURAL DEVELOPMENT. Aleksandras Stulginskis University, 2018. http://dx.doi.org/10.15544/rd.2017.211.

Full text
Abstract:
Competitiveness, which is inextricably linked to the notion of competition, remains the aim pursued by companies and countries because everyone wants to outsource others and, over time, enjoy the benefits. A successfully competing community based by providing of services has more opportunities to attract and retain visitors, the same time implementing and meeting the needs of community members and ensuring community stability. With the rapid development of innovations and technologies, reveals the necessary to analyse the determinants of competitiveness. The competitiveness of the rural area is reflected by factors such as investment attractiveness, living conditions, attractiveness for the population, geographical location, heritage, culture, the fostering of customs and traditions. In order to assess the factors determining the competitiveness of rural communities, an investigation was organized. Methods chosen for the study: document analysis, SWOT and interviews.
APA, Harvard, Vancouver, ISO, and other styles
5

Konečný, Peter, and Matej Styk. "Isaac Potter's 1722 Engine House in Königsberg/Nová Baňa: evidence and archaeology." In 2nd International Early Engines Conference. International Early Engines Conference & ISSES, 2023. http://dx.doi.org/10.54267/ieec2-2-01.

Full text
Abstract:
The aim of this paper is to elaborate on the historical background of this eminent historical mining site in Central Europe and then present and analyse the key findings from our excavations of Isaac Potter’s engine house. Despite its notoriety in international historiography and some older detailed studies on Potter by Slovak historians, no efforts were made to locate and excavate the engine site and its associated Althandel shaft in Nová Baňa in Central Slovakia. The archaeological excavation was initiated as a project of a mining museum in the municipality of Nová Baňa. Its aim was to confirm the location of the Althandel shaft, and any building remains of the related atmospheric pumping engine. Based on three years of archaeological and historical research, it was possible to document the existence of the engine house and connect it to the activities of Isaac Potter in Nová Baňa.
APA, Harvard, Vancouver, ISO, and other styles
6

Kajavathani, P., and T. Ramachandra. "An assessment of maintenance cost of residential apartments in Sri Lanka." In 10th World Construction Symposium. Building Economics and Management Research Unit (BEMRU), University of Moratuwa, 2022. http://dx.doi.org/10.31705/wcs.2022.8.

Full text
Abstract:
Buildings require maintenance for their continuous operation at a higher level through their extended life. Early prediction of maintenance costs (MC) would enable efficient maintenance and smooth operations of the buildings and thereby ensure achieving value for the investment. The effects of factors on MC provide a chance to refine the design to ensure the optimisation of MC during early design development. Thus, this study aims to analyse the MC of high-rise residential apartments along with the effects of factors influencing MC in Sri Lanka. Initially, a questionnaire survey was conducted to assess the factors’ impact on the MC elements based on a 1-5 Likert scale. Then, a case study approach was employed using three high-rise residential apartments with above 30 floors located in Colombo to analyse the costs of MC elements. The data collected from semi-structured interviews and document review were analysed manually as a percentage of MC. The findings revealed that MC accounts for 30% of running costs (RC). According to Pareto analysis, 11 out of 29 sub-elements including lifts and escalators, maintenance management, repairs and replacement, and electric power and lighting contribute to 80% of MC. Further, most of the building design factors and technical factors highly affect the MC. The annual MC per GFA is about Rs. 350.00. It is expected that these findings would enable the designers to forecast the MC and focus on the relevant design and technical factors to optimise the maintenance costs of highrise residential buildings at the early design stages.
APA, Harvard, Vancouver, ISO, and other styles
7

Mermiris, George, Ioannis Moatsos, P. K. Das, and I. E. Winkle. "Towards a Method for the Optimisation of Midship Section in Terms of Production Cost in Preliminary Ship Design." In ASME 2005 24th International Conference on Offshore Mechanics and Arctic Engineering. ASMEDC, 2005. http://dx.doi.org/10.1115/omae2005-67496.

Full text
Abstract:
The most closely related attribute to the actual building cost of a new ship is its structural arrangement. Other particulars related to that cost, such as the pay load capacity, the propulsion installation, the endurance of the ship, etc., are more or less defined in the specification document. On the other hand, the structural integrity of the vessel is not in any case directly considered by the ship owner. It is responsibility of the designer to analyse it in depth and within the limits of a given budget. The latter feature directly implies that the strength and production cost of a new vessel are closely related and require special attention in the design stage since this is the time to make substantial changes with the least cost penalty. Considering the above, a method is proposed for the estimation of structural integrity of the hull in terms of production cost. The potential of this method lies in the fact that strength and cost virtues are expressed as functions of the same fundamental variables. As a result the method is particularly useful in the early design stages. Despite the simplistic approach, the foundation is set for a more rational approach of cost analysis in ship design.
APA, Harvard, Vancouver, ISO, and other styles
8

Dinu, Andreea, Elena Raluca Lupu, and Alina Negrus-Costin. "Challenges of social and environmental issues of companies operating in the energy industry." In Conferința științifică internațională studențească „Provocările contabilității în viziunea tinerilor cercetători”, ediția VII. Academy of Economic Studies of Moldova, 2023. http://dx.doi.org/10.53486/issc2023.10.

Full text
Abstract:
The EU Directive 2014/95/EU requires large companies, including those in the energy sector, to disclose non-financial information, such as environmental, social, and governance (ESG) issues, in their annual reports. This has led many energy companies to integrate sustainability and ESG reporting into their overall corporate reporting. However, complying with the directive can present both challenges and opportunities for energy companies. This document aims to analyse the impact of integrated reporting on the value relevance of European energy companies. To accomplish this, we analysed three of the most significant companies in the energy sector: Haliburton, Schlumberger, and Baker Hughes. In their annual reports for the year 2021, each company applied European Directive 2014/95/EU. During the analysis, we paid close attention to the additional information regarding economic, environmental, and social issues. Particular attention was paid to the relationship between financial and non-financial information. In addition to the current condition, we focused on and evaluated the communicated future plans and visions for development in the areas listed below. Due to the application of content analysis, it was possible to assess the corporations using an evaluation matrix. Consequently, we evaluated the information contained in the reports and determined a quantifiable overall result.
APA, Harvard, Vancouver, ISO, and other styles
9

Avotiņa, Maruta, and Agnese Zīlīte. "Changes in the Mathematics Curriculum for Grades 10–12 in Latvia." In ATEE 2022 Annual Conference. University of Latvia Press, 2023. http://dx.doi.org/10.22364/atee.2022.45.

Full text
Abstract:
In the school year 2021/2022 in all schools and for all grades in Latvia ends the gradual transition from the previous mathematics standard (that was used since year 2008) to the new mathematics standard. This standard is developed within the ESF project “Competence Approach to Curriculum (School 2030)”. The mathematics subject in the secondary school is divided into two parts: Mathematics I (optimal level for every secondary school student) and Mathematics II (advanced level for secondary school students who plan to study exact sciences at the university). The final exam also is different and will focus not only on solving problems but also on the correct use of mathematical language and justification. These changes also have effect on the learning process, now emphasis is on the competency-based learning that will provide pupils with the knowledge, skills and attitudes needed for modern life. The aim of our study is to compare standards, curricula, and final exams to analyse the differences in mathematics content for grades 10–12. The method used in this article is document analysis as documentary research as well as analysis of pupils’ results in final mathematics exams. As the education system in Latvia is in the process of transition, it is important to understand how the changes might affect pupils’ knowledge and skills in mathematics.
APA, Harvard, Vancouver, ISO, and other styles
10

Motsoeneng, Molefi. "THE EFFECTS OF TEACHER EDUCATION ON TECHNICAL VOCATIONAL EDUCATION AND TRAINING COLLEGE LECTURERS." In International Conference on Education and New Developments. inScience Press, 2022. http://dx.doi.org/10.36315/2022v1end082.

Full text
Abstract:
"The aim of this paper is to analyse teacher training with regard to Content Knowledge (CK) and Pedagogical Content Knowledge (PCK) by universities in South Africa. The universities’ training of teachers does not cater for Technical Vocational Education and Training (TVET) college lecturers, who are thus required to teach courses in which they are not competent. At the beginning of democracy in South Africa, reform of teacher education was initiated. This reform was followed by a closure of the teacher training colleges which therefore shifted the responsibility for training of future teachers to the universities. Minimum Requirements for Teacher Education Qualifications (MRTEQ) were adopted as the policy document for admission into the teaching profession. The reforms, however, excluded the training of (TVET) lecturers. TVET College lecturer training has not changed and most of the problems regarding lack of Content Knowledge (CK), PCK, and Subject Matter Knowledge (SMK) have not been attended to. This has negatively influenced the quality of lecturers at TVET colleges and resulted in a poor quality of TVET education. Semi-structured interviews collected the data regarding training in relation to courses currently being taught, as well as measuring CK, PCK, and SMK in those courses. The findings revealed that the lecturers were not competent in the courses they taught. Thus, the study strongly recommends more teacher training of the continuous professional development."
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Analyse d'images de document"

1

Meunier, Valérie, and Eric Marsden. Analyse coût-bénéfices: guide méthodologique. Fondation pour une culture de sécurité industrielle, December 2009. http://dx.doi.org/10.57071/492acb.

Full text
Abstract:
La gestion des risques industriels soulève de nombreuses questions auxquelles on ne peut pas répondre par un simple «oui» ou «non»: (1) quels critères la société devrait-elle utiliser pour décider que les risques d'une installation industrielle ont été réduits aussi bas que raisonnablement praticable? (2) comment arbitrer entre des considérations qui relèvent de «dimensions» différentes: morts et blessés potentiels en cas d'accident industriel, impacts potentiels sur l'environnement, enjeux financiers, développement de l'emploi, déménagements forcés en cas d'expropriation d'habitations, etc. et ayant des impacts sur de multiples parties prenantes (riverains des installations industrielles, exploitants et employés des sites, élus locaux et régionaux, etc.)? L'analyse coût-bénéfices (ACB) est un outil d'aide à la décision qui peut faciliter la discussion entre parties prenantes. Elle fournit un cadre structuré permettant de présenter l'ensemble des éléments de la décision et discuter de leur pondération respective, favorisant ainsi la transparence du processus décisionnel. Cet outil est largement utilisé dans les pays anglo-saxons en matière de réglementation environnementale et de décisions concernant la sécurité industrielle. Le présent document vise à aider des analystes qui souhaiteraient conduire une ACB d'un projet d'investissement en matière de sécurité ou une analyse d'impact d'une réglementation liée à la prévention. Il vise également à éclairer les lecteurs de telles études et les aider à évaluer la qualité de l'analyse. Le document présente les concepts économiques qui sous-tendent l'ACB, et décrit les principales étapes pratiques d'une étude. Il fournit des indications sur les sources de données permettant de monétiser différentes conséquences hors-marché de l'activité industrielle (impact sur la santé et la sécurité des personnes, pollutions environnementales et nuisances sonores). Le document propose également une check-list des questions qu'il peut être utile de se poser lors de la lecture critique d'une étude ACB.
APA, Harvard, Vancouver, ISO, and other styles
2

Atuhurra, Julius, Rastee Chaudhry, and Michelle Kaffenberger. Conducting Surveys of Enacted Curriculum Studies in Low- and Middle-Income Countries: A Toolkit for Policymakers, Researchers, and Education Practitioners. Research on Improving Systems of Education (RISE), March 2023. http://dx.doi.org/10.35489/bsg-rise-misc_2023/13.

Full text
Abstract:
The Surveys of Enacted Curriculum (SEC) approach is used to analyse and report on the academic content embedded in education instructional components such as curriculum standards, assessments, and teachers' classroom instruction. Through a partnership between the RISE Programme and the Center for Curriculum Analysis, the approach has been used to analyse educational alignment in low- and middle-income country education systems, including in Kenya, Nepal, Nigeria, Tanzania, and Uganda. The SEC approach has many applications including content and alignment analysis for curriculum standards, assessments, and instructional materials; curriculum reform design and implementation support; and teacher professional development and support. This document provides a comprehensive toolkit for conducting an SEC study in LMICs. Following the introduction and background, Section 2 gives an overview of the SEC approach and provides a brief description of sequential steps involved in conducting an SEC study: (i) generating data; (ii) inputting data; (iii) processing and analysing data; and (iv) interpretating results. Section 3 then gives detailed, step-by-step instructions for implementing an SEC study. Section 4 shares lessons learned from conducting SEC studies in LMICs. The document then closes with an Appendix that provides a detailed overview of the SEC tools and other resources provided with this toolkit. These appendices [.zip] are available for download.
APA, Harvard, Vancouver, ISO, and other styles
3

Melloni, Gian. Local Government Leadership in Sanitation and Hygiene: Experiences and Learnings from West Africa. Institute of Development Studies (IDS), January 2022. http://dx.doi.org/10.19088/slh.2022.001.

Full text
Abstract:
Between July and October 2021, the Sanitation Learning Hub worked with government representatives and development partners to develop, share, and cross-analyse case studies looking at local system and government strengthening in four local government areas across West Africa: Benin (N’Dali commune), Ghana (Yendi municipal district), Guinea (Molota commune), and Nigeria (Logo LGA). The initiative focused on examples of local leadership in sanitation and hygiene (S&H), with case studies developed in collaboration with development partners (Helvetas in Benin, UNICEF in Ghana and Guinea, United Purpose in Nigeria) and the local governments they partner with. The goal was to cross-analyse examples of local government leadership in S&H, looking at what led to the prioritisation of S&H, and identifying commonalities and transferable knowledge through a participatory cross-learning process. The case studies identified positive change occurred in local government leadership in S&H, and analysed the contributions to change, via document review, key informant interviews and focus group discussions. This learning brief shares the learnings and recommendations that emerged from the case studies and through the three participatory workshops that followed.
APA, Harvard, Vancouver, ISO, and other styles
4

Dufour, Quentin, David Pontille, and Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Full text
Abstract:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
APA, Harvard, Vancouver, ISO, and other styles
5

Niesten, Hannelore. Les services financiers numériques et traditionnels sont ils taxés de la même manière ? Une évaluation approfondie des politiques fiscales dans neuf pays africains. Institute of Development Studies, April 2023. http://dx.doi.org/10.19088/ictd.2023.051.

Full text
Abstract:
Plusieurs pays africains ont introduit des taxes sur les services financiers numériques (SFN) au cours de la dernière décennie. Compte tenu de la taille et de la croissance rapide du secteur des télécommunications et des SFN, la taxation des SFN est considérée comme une opportunité d’élargir la base fiscale. Ces évolutions récentes doivent être prises en compte au même titre que le cadre de taxation des services financiers traditionnels (SFT) fournis par les banques et les autres institutions financières formelles, telles que les coopératives de crédit, les compagnies d’assurance et les institutions de microfinance. Ce document de travail analyse les principaux instruments législatifs, fiscaux et réglementaires, en comparant le cadre fiscal de neuf pays d’Afrique : le Burundi, la Côte d’Ivoire, le Ghana, le Kenya, le Rwanda, le Soudan du Sud, la Tanzanie, l’Ouganda et le Zimbabwe.
APA, Harvard, Vancouver, ISO, and other styles
6

Pearson, Ken, and Channing Arndt. Implementing Systematic Sensitivity Analysis Using GEMPACK. GTAP Technical Paper, November 2000. http://dx.doi.org/10.21642/gtap.tp03.

Full text
Abstract:
In economic simulation, results often hinge crucially on values of key exogenous inputs (the values of the parameters of the model and the shocks applied). Computational burden has, in the past, hindered systematic investigation of the impacts of variations in these key exogenous inputs. In this document, practical methods for conducting systematic sensitivity analysis for any model implemented using the GEMPACK suite of software are documented. The procedures described here are based on GTAP Technical Paper number 2 which sets out the theory behind the Gaussian quadrature methods on which the automated procedure is based. The procedures allow modellers to obtain estimates of the means and standard deviations of any endogenous variables of their model. The model only needs to be solved a relatively modest number of times (usually only 2N times if N exogenous inputs are varying); this is considerably fewer than the number of solves required by Monte Carlo methods. The procedure documented here fully automates solving the model as often as is necessary; once the user sets it up and starts it running, no further intervention is required. The document spells out the assumptions which must be made about the distribution of the exogenous inputs for the methods described to be valid. Five examples of systematic sensitivity computations are presented and the accompanying software allows modellers to work through these examples while reading the document. This should leave readers fully prepared to analyse the sensitivity of results for any model implemented in GEMPACK.
APA, Harvard, Vancouver, ISO, and other styles
7

Ringhand, Madlen, Maximilian Bäumler, Christian Siebke, Marcus Mai, and Felix Elrod. Report on validation of the stochastic traffic simulation (Part A). Technische Universität Dresden, 2021. http://dx.doi.org/10.26128/2021.242.

Full text
Abstract:
This document is intended to give an overview of the human subject study in a driving simulator that was conducted by the Chair of Traffic and Transportation Psychology (Verkehrspsychologie – VPSY) of the Technische Universität Dresden (TUD) to provide the Chair of Automotive Engineering (Lehrstuhl Kraftfahrzeugtechnik – LKT) of TUD with the necessary input for the validation of a stochastic traffic simulation, especially for the parameterization, consolidation, and validation of driver behaviour models. VPSY planned, conducted, and analysed a driving simulator study. The main purpose of the study was to analyse driving behaviour and gaze data at intersections in urban areas. Based on relevant literature, a simulated driving environment was created, in which a sample of drivers passed a variety of intersections. Considering different driver states, driving tasks, and traffic situations, the collected data provide detailed information about human gaze and driving behaviour when approaching and crossing intersections. The collected data was transferred to LKT for the development of the stochastic traffic simulation.
APA, Harvard, Vancouver, ISO, and other styles
8

Beaurain, Christophe, Julien Bernard, Iratxe Calvo-Mendieta, Hervé Flanquart, Séverine Frère, Frédéric Gonthier, Anne-Peggy Hellequin, and Antoine Le Blanc. Les risques et pollutions industriels sur le territoire dunkerquois: des perceptions à la «concertation». Fondation pour une culture de sécurité industrielle, July 2010. http://dx.doi.org/10.57071/255dkr.

Full text
Abstract:
Ce document présente les résultats d’une étude de la perception des risques et nuisances industrielles dans l’agglomération dunkerquoise, ainsi qu’une analyse de la perception et du fonctionnement de différentes structures de concertation consacrées à ces questions. Les auteurs analysent la façon dont les tensions entre risques et bénéfices socio-économiques liés à l’activité industrielle sont ressenties et gérées sur ce territoire fortement industrialisé, où différents acteurs sont engagés dans le projet commun d’articulation du développement industriel et d’amélioration de la qualité environnementale. Les chercheurs ont interrogé les Dunkerquois sur leur environnement, leur cadre de vie, leur perception des risques industriels, leur connaissance des consignes à appliquer en cas d’accident industriel, et la confiance qu’ils accordent à différents acteurs chargés de la gestion des risques. Ce travail s’appuie sur une enquête par questionnaire qui visait, en produisant de la connaissance sociologique sur ces thématiques, à intégrer l’analyse des perceptions et des opinions des habitants dans la réflexion sur la gestion des risques à l’échelle de leur territoire.
APA, Harvard, Vancouver, ISO, and other styles
9

Marsden, Eric. Partage des modèles de sécurité entre donneurs d’ordres et entreprises intervenantes. Fondation pour une culture de sécurité industrielle, December 2018. http://dx.doi.org/10.57071/360upb.

Full text
Abstract:
Ce document s’intéresse à la sécurité des activités industrielles dans lesquelles une part importante du travail est externalisée ou sous-traitée. Ces activités impliquent une collaboration entre de nombreuses entreprises, dont l’entreprise utilisatrice (dite aussi donneur d’ordres) et un ensemble d’entreprises intervenantes. Les relations entre entreprises utilisatrices et intervenantes sont très variables, certaines pouvant être proches de la mise à disposition de main d’œuvre, où les règles de sécurité, la formation aux risques et l’évaluation des risques des activités sont principalement déterminées par l’entreprise utilisatrice, selon son référentiel interne; et d’autres où l’expertise ainsi que la connaissance des risques des opérations conduites et des méthodes de travail sûres sont plus développées chez l’entreprise intervenante que chez l’entreprise utilisatrice. La sécurité ne peut être décrétée depuis le siège d'une grande entreprise, mais doit être co-construite par l'ensemble des acteurs: concepteurs des installations, rédacteurs des modes opératoires et du référentiel de sécurité, personnes préparant et planifiant les interventions, et personnes intervenant sur le terrain. La définition et la mise en œuvre passent donc d’une organisation verticale avec un donneur d’ordres à la tête, vers une organisation plus horizontale entre partenaires. Cette organisation nécessite une bonne coordination entre les acteurs, dans le cadre d'une relation partenariale. Ce document analyse différentes modalités de cette coordination entre les acteurs et leurs effets sur la sécurité. Il identifie un certain nombre de points posant problème dans la relation entre les entreprises utilisatrices et intervenantes, en particulier dans le domaine de la maintenance et les travaux neufs, et suggère un certain nombre de bonnes pratiques pour améliorer le partenariat et donner du sens à la notion de co-construction de la sécurité.
APA, Harvard, Vancouver, ISO, and other styles
10

Giles Álvarez, Laura, Juan Carlos Vargas-Moreno, Alejandra Mejía, Aastha Patel, and Nerlyne Jean-Baptiste. Une approche spatiale pour analyser l’insécurité alimentaire dans le département du Nord-Ouest d’Haïti. Inter-American Development Bank, December 2022. http://dx.doi.org/10.18235/0004589.

Full text
Abstract:
Cette étude présente une analyse de l’insécurité alimentaire et de ses facteurs sous-jacents dans le département du Nord-Ouest en Haïti. Ce département est l’un des plus vulnérable et le plus touché par l’insécurité alimentaire en Haïti, avec 55 % de la population ayant besoin d’une assistance urgente (IPC 2022). L’aide du Cadre intégré des phases de la sécurité alimentaire (IPC) et du Cadre de sécurité alimentaire (BID 2018) de la Banque Interaméricaine de développement (BID), cet article présente une analyse géo-spatiale, complétée par un examen d’autres facteurs socioéconomiques, pour donner un aperçu de ce qui aggrave cette crise alimentaire et des domaines les plus urgents à traiter. Les résultats montrent que le déclin de la production nationale - qui a été entravée par des infrastructures et des financements inadéquats, l’insécurité et les catastrophes naturelles - s’est produit parallèlement aux perturbations de la chane d’approvisionnement internationale, affectant les importations conjointement avec les recettes provenant de laide. L’ensemble de ces facteurs a un effet négatif sur la disponibilité de la nourriture. Les contraintes d’approvisionnement, les restrictions de mobilité, les chocs de prix et les risques pour les revenus durables ont également un impact négatif sur l’accès à la nourriture. Les difficultés d’accès à l’eau potable et aux infrastructures sanitaires, ainsi que le manque de diversité au niveau des régimes alimentaires, entravent également l’utilisation de la nourriture, décrite comme la disponibilité d’aliments de qualité nécessaires pour atteindre un statut nutritionnel adéquat. En outre, la stabilité alimentaire n’est pas garantie en raison des problèmes liés aux dotations naturelles de la région, au manque ou à la faible capacité des infrastructures d’irrigation, à la vulnérabilité aux chocs climatiques, aux fluctuations des prix et à l’insécurité. Sur la base de ces résultats, ce document recommande 23 actions visant à augmenter l’accès aux services de base, à promouvoir une nutrition adéquate, à soutenir une agriculture productive et durable et à accroître la résilience aux chocs et aux fluctuations inhérentes à l’écosystème alimentaire. Plus important encore, le déploiement efficace de ces mesures nécessitera une approche coordonnée à tous les niveaux administratifs de ltatocal et national, en collaboration avec le secteur privé et la communauté des donateurs.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography