Добірка наукової літератури з теми "Plan de données programmable"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Plan de données programmable".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Plan de données programmable":

1

BLAZY, V., G. HEURTEBIZE, D. GILLES, G. TESNIERE, and G. FLEURY. "Solutions de monitoring au service d’audit de stations d’épuration des eaux usées." Techniques Sciences Méthodes, no. 6 (June 22, 2020): 33–43. http://dx.doi.org/10.36904/tsm/202006033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’audit de stations de traitement des eaux usées est un exercice complexe, car transdisciplinaire (génie des procédés, génie biologique, électromécanique, chimie, chimie analytique, hydraulique…), et dont le périmètre couvre de larges aspects relatifs à la sécurité, au process, à la maintenance, à l’économie et à l’organisation… Traditionnellement, cette démarche se décompose en trois phases distinctes visant : i) un recueil d’informations, ii) un relevé sur site et iii) un compte rendu. Les développements récents en matière de métrologie et d’instrumentation ont permis d’augmenter le niveau d’automatisation et de contrôle des usines de traitement des eaux. Les processus épuratoires, mis en oeuvre à travers des procédés plus ou moins complexes, sont ainsi suivis plus finement, assurant une réactivité opérationnelle immédiate et une fiabilisation des qualités d’eau à atteindre. Dans un même temps, la compilation de données au sein d’un automate programmable industriel et leur organisation/ traitement à travers une solution de supervision/hypervision amènent un suivi et une rationalisation de l’exploitation ouvrant la porte à des perspectives d’optimisation. Pour autant, les gains apportés par le monitoring sont rarement mis au profit des moyens d’investigations nécessaires à la phase de relevé sur site d’audit. Cet article présente plusieurs retours d’expériences à travers trois cas d’étude. Il intègre aussi bien des préoccupations d’ordres méthodologique, technique que des exemples de retour sur investissement dans la conduite et la restitution d’audit d’installations de traitement des eaux usées.
2

Rossi, Julien. "La structure argumentative d’un demi-siècle de politique européenne de protection des données à caractère personnel." Politique européenne N° 81, no. 3 (February 19, 2024): 54–85. http://dx.doi.org/10.3917/poeu.081.0054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Malgré les profondes transformations intervenues depuis l’adoption des premières lois de protection des données personnelles dans les années 1970, tant sur le plan technique que sur le plan politique, les dispositions en vigueur dans les textes actuels, au premier desquels le Règlement général de protection des données adopté en 2016, en reprennent les principaux principes et définitions. Le présent article s’appuie sur les approches cognitives des politiques publiques pour montrer comment cette forte continuité s’explique en large part par la stabilité de la structure argumentative des débats au sein des arènes où s’élaborent ces textes.
3

Pariente, Alain, and Matthieu Rouveyre. "« Profil dataviz » : pour une utilisation optimisée des données financiéres locales." Gestion & Finances Publiques, no. 5 (September 2022): 15–22. http://dx.doi.org/10.3166/gfp.2022.5.002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’accès aux données financières locales est devenu beaucoup plus facile avec le développement de l’open data ces dernières années. Pour autant, l’utilisation de ces données reste délicate sur le plan technique et les analyses basées sur l’ensemble des données disponibles sont très rares. « Profil dataviz », plateforme de recherche universitaire, propose de répondre à ce double défi en permettant d’utiliser et d’analyser les données financières locales grâce à un logiciel novateur et une équipe de recherche spécialisée. Les fortes potentialités de l’outil sont illustrées ici à travers les calculs qui ouvrent de nouvelles perspectives en matière de recherche sur l’autonomie financière.
4

Chatain, Carina, and Pascale Raulin-Serrier. "Pour une éducation à la protection des données personnelles." Diversité 185, no. 1 (2016): 122–25. http://dx.doi.org/10.3406/diver.2016.4311.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Denizot, B., and C. Geai. "Utilisation en médecine nucléaire d’Orthanc®, un logiciel programmable open-source d’échanges de données images." Médecine Nucléaire 43, no. 2 (March 2019): 215. http://dx.doi.org/10.1016/j.mednuc.2019.01.120.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Yang, Zhi Fang, Shan Qing, Gang Yao, Hua Wang, Zhe Shi, and Ping He. "Measure Scheme According to Siemens PLC." Advanced Materials Research 393-395 (November 2011): 847–50. http://dx.doi.org/10.4028/www.scientific.net/amr.393-395.847.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Using the Siemens PLC programmable controller, a new weighing and control integration plan was discussed, and the debugging points was analyzed according to the engineering experience, and the principle part and program details were presented.
7

Clavet, Michel, François Petry, and Jean-Sébastien Brien. "Comment analyser les données chronologiques pour plan partitionné en sciences sociales." Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique 61, no. 1 (January 1999): 53–69. http://dx.doi.org/10.1177/075910639906100105.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Leduc, Michèle, and François Graner. "Le plan S ne sera pas le dernier mot de l’ouverture des publications scientifiques." Reflets de la physique, no. 62 (June 2019): 54–55. http://dx.doi.org/10.1051/refdp/201962054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Faisant suite à la très riche discussion amorcée dans le numéro 61 de Reflets de la physique avec la tribune libre « Le Plan S – késako ? » [1], nous proposons ici une discussion qui complète les informations et les analyses données par la Commission des publications de la SFP.
9

Le Blanc, Marc, Pierre McDuff, and Richard E. Tremblay. "Types de familles, conditions de vie, fonctionnement du système familial et inadaptation sociale au cours de la latence et de l’adolescence dans les milieux défavorisés." Santé mentale au Québec 16, no. 1 (September 11, 2007): 45–75. http://dx.doi.org/10.7202/032203ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
RÉSUMÉ Les données manquent concernant l'impact de certains types de familles, et les résultats sont souvent discordants concernant l'inadaptation. Après avoir décrit les variations de l'activité délictueuse et des troubles de comportement selon les types de familles, nous analysons les difficultés de fonctionnement du système familial. Six types de familles sont comparés pour 763 garçons de 10 ans, 319 adolescentes et 426 adolescents de 14 et 15 ans: les familles intactes, les familles monoparentales patricentriques et matricentriques, les familles recomposées patricentriques et matricentriques et les familles substituts. Les données présentées montrent qu'en cette fin des années 1980, près de 40 % des enfants et des adolescents des quartiers à faible statut socio-économique de Montréal vivent dans des familles désunies. Les données confirment en outre une observation classique: les familles désunies, en comparaison aux familles intactes, sont défavorisées sur le plan des conditions de vie, déficientes sur le plan du fonctionnement psychosocial et propices aux troubles de comportement et à l'activité délictueuse. Par ailleurs, il est établi que certains types de familles désunies constituent un facteur de risque considérable. L'effet dommageable de la structure de la famille s'accroît dans l'ordre suivant: familles intactes, familles monoparentales matricentriques, familles recomposées matricentriques, familles substituts, familles recomposées patricentriques et familles monoparentales patricentriques. Pour terminer, quelques pistes d'intervention pour la prévention des difficultés comportementales et familiales sont proposées.
10

Parenteau, René, and François Charbonneau. "Abidjan : une politique de l’habitat au service du plan urbain." Cahiers de géographie du Québec 36, no. 99 (April 12, 2005): 415–37. http://dx.doi.org/10.7202/022293ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement d'Abidjan a été fortement planifié sur le cadre de plusieurs plans urbains successifs. Il a été supporté par une ambitieuse politique de logements publics. A l'occasion d'une recherche sur les logements produits dans le cadre de cette politique, nous tentons de voir si la production de logements publics a effectivement orienté la croissance de la structure de la ville selon les directions données par les plans successifs. Nous constaterons que la production de logements publics a organisé la différenciation de l'espace et établi les principaux quartiers d'Abidjan.

Дисертації з теми "Plan de données programmable":

1

Jose, Matthews. "In-network real-value computation on programmable switches." Electronic Thesis or Diss., Université de Lorraine, 2023. http://docnum.univ-lorraine.fr/ulprive/DDOC_T_2023_0057_JOSE.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'arrivée des switchs ASIC programmables de nouvelle génération a obligé la communauté des réseaux à repenser le fonctionnement des réseaux. La possibilité de reconfigurer la logique de traitement des paquets par le plan de transfert de données sans modifier le matériel sous-jacent et l'introduction de primitives de mémoire à état ont suscité un regain d'intérêt pour les cas d'utilisation qui peuvent être déchargés sur le plan de transfert de données. Cependant, les commutateurs programmables ne prennent toujours pas en charge les calculs à valeur réelle et obligent à utiliser des serveurs externes ou des boîtes intermédiaires pour effectuer ces opérations. Afin de réaliser pleinement la capacité de traitement en réseau, nos contributions proposent d'ajouter le support des opérations à valeur réelle sur le commutateur. Pour ce faire, nous utilisons des tables de consultation mathématiques pour construire des pipelines permettant de calculer des fonctions à valeur réelle. Nous commençons par développer des procédures pour calculer des opérations élémentaires de base, en gardant à l'esprit les contraintes et les limitations d'un commutateur programmable. Ces procédures sont une combinaison de tables de consultation et d'opérations natives fournies par le commutateur. Une fonction donnée est décomposée en une représentation qui met en évidence les opérations élémentaires qui la composent et les dépendances entre elles. Un pipeline est construit en assemblant les procédures prédéfinies pour chaque opération élémentaire sur la base de la représentation. Plusieurs techniques de réduction et d'optimisation des ressources sont également appliquées avant que le pipeline final ne soit déployé sur le commutateur. Ce processus a été étendu à plusieurs commutateurs du réseau, ce qui permet de déployer des fonctions encore plus importantes sur le commutateur. Le projet a été le premier à étudier un cadre générique pour la construction de pipelines pour le calcul à valeur réelle. Notre prototype sur le commutateur Barefoot Tofino montre l'efficacité de notre système pour le calcul en réseau de différents types d'opérations et son application pour les modèles de régression logistique en réseau utilisés pour les problèmes de classification et les fonctions de séries chronologiques comme ARIMA pour la détection des DDoS. Nos évaluations montrent qu'il est possible d'atteindre une erreur relative inférieure à 5%, voire 1%, avec une faible quantité de ressources, ce qui en fait une approche viable pour prendre en charge des fonctions et des algorithmes complexes
The advent of new-generation programmable switch ASICs have compelled the network community to rethink operation of networks. The ability to reconfigure the dataplane packet processing logic without changing the underlying hardware and the introduction of stateful memory primitives have resulted in a surge in interest and use-cases that can be offloaded onto the dataplane. However, programmable switches still do not support real-value computation and forcing the use of external servers or middle boxes to perform these operations. To fully realize the capability of in-network processing, our contributions propose to add support for real-value operations on the switch. This is achieved by leveraging mathematical lookup tables for building pipelines to compute a real-value functions. We start by developing procedures for computing basic elementary operations, keeping in mind the constraints and limitations of a programmable switch. These procedures are a combination of lookup tables and native operations provided by the switch. A given function is decomposed into a representation that highlights its constituent elementary operations and the dependencies between them. A pipeline is constructed by stitching together the predefined procedures for each elementary operation based on the representation. Several, reduction and resource optimization techniques are also applied before the final pipeline is deployed onto the switch. This process was further expanded to scale multiple switches in the network, enabling even larger functions to be deployed on the switch. The project was the first to investigate a generic framework for building pipelines for real-value computation. Our prototype on Barefoot Tofino switch shows the efficiency of our system for in-network computation of different types of operations and its application for in-network logistic regression models used for classification problems and time series functions like ARIMA for DDoS detection. Our evaluations show that reaching a relative error below 5% or even 1% is possible with a low amount of resources making it a viable approach to support complex functions and algorithms
2

Soni, Hardik. "Une approche modulaire avec délégation de contrôle pour les réseaux programmables." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les opérateurs de réseau sont confrontés à de grands défis en termes de coût et de complexité pour intégrer les nouvelles technologies de communication (e.g., 4G, 5G, fibre optique) et pour répondre aux demandes croissantes des nouveaux services réseau adaptés aux nouveaux cas d’utilisation. La "softwarization" des opérations réseau à l'aide des paradigmes SDN (Software Defined Networking) et NFV (Network Function Virtualization) est en mesure de simplifier le contrôle et la gestion des réseaux et de fournir des services réseau de manière efficace. Les réseaux programmables SDN permettent de dissocier le plan de contrôle du plan de données et de centraliser le plan de contrôle pour simplifier la gestion du réseau et obtenir une vision globale. Cependant, ceci amène des problèmes de passage à l'échelle difficiles à résoudre. Par ailleurs, en dissociant la partie matérielle de la partie logicielle des routeurs, NFV permet d'implanter de manière flexible et à moindre coût toutes sortes de fonctions réseau. La contrepartie est une dégradation des performances due à l'implantation en logiciel des fonctions réseau qui sont déportées des routeurs. Pour aborder les problèmes de passage à l'échelle et de performance des paradigmes SDN/NFV, nous proposons dans la première partie de la thèse, une architecture modulaire de gestion et de contrôle du réseau, dans laquelle le contrôleur SDN délègue une partie de ses responsabilités à des fonctions réseau spécifiques qui sont instanciées à des emplacements stratégiques de l'infrastructure réseau. Nous avons choisi un exemple d'application de streaming vidéo en direct (comme Facebook Live ou Periscope) utilisant un service de multicast IP car il illustre bien les problèmes de passage à l'échelle des réseaux programmables. Notre solution exploite les avantages du paradigme NFV pour résoudre le problème de scalabilité du plan de contrôle centralisé SDN en délégant le traitement du trafic de contrôle propre au service multicast à des fonctions réseau spécifiques (appelées MNF) implantées en logiciel et exécutées dans un environnement NFV localisé à la périphérie du réseau. Notre approche fournit une gestion flexible des groupes multicast qui passe à l'échelle. De plus, elle permet de bénéficier de la vision globale du contrôle centralisé apportée par SDN pour déployer de nouvelles politiques d'ingénierie du trafic comme L2BM (Lazy Load Balance Multicast) dans les réseaux de fournisseurs d’accès à Internet (FAI) programmables. L'évaluation de cette approche est délicate à mettre en œuvre car la communauté de recherche ne dispose pas facilement d'infrastructure SDN à grande échelle réaliste. Pour évaluer notre solution, nous avons élaboré l'outil DiG qui permet d'exploiter l'énorme quantité de ressources disponibles dans une grille de calcul, pour émuler facilement de tels environnements. DiG prend en compte les contraintes physiques (mémoire, CPU, capacité des liens) pour fournir un environnement d'évaluation réaliste et paramétrable avec des conditions contrôlées. La solution que nous proposons délègue le contrôle et la gestion du réseau concernant le service de multicast aux fonctions spécifiques MNF exécutées dans un environnement NFV. Idéalement, pour davantage d'efficacité, toutes ces fonctions spécifiques devraient être implantées directement au sein des routeurs avec du hardware programmable mais cela nécessite que ces nouveaux routeurs puissent exécuter de manière indépendante plusieurs fonctions réseau à la fois. Le langage de programmation P4 est une technologie prometteuse pour programmer le traitement des paquets de données dans les routeurs programmables (hardware et logiciels)
Network operators are facing great challenges in terms of cost and complexity in order to incorporate new communication technologies (e.g., 4G, 5G, fiber) and to keep up with increasing demands of new network services to address emerging use cases. Softwarizing the network operations using SoftwareDefined Networking (SDN) and Network Function Virtualization (NFV) paradigms can simplify control and management of networks and provide network services in a cost effective way. SDN decouples control and data traffic processing in the network and centralizes the control traffic processing to simplify the network management, but may face scalability issues due to the same reasons. NFV decouples hardware and software of network appliances for cost effective operations of network services, but faces performance degradation issues due to data traffic processing in software. In order to address scalability and performance issues in SDN/NFV, we propose in the first part of the thesis, a modular network control and management architecture, in which the SDN controller delegates part of its responsibilities to specific network functions instantiated in network devices at strategic locations in the infrastructure. We have chosen to focus on a modern application using an IP multicast service for live video streaming applications (e.g., Facebook Live or Periscope) that illustrates well the SDN scalability problems. Our solution exploits benefits of the NFV paradigm to address the scalability issue of centralized SDN control plane by offloading processing of multicast service specific control traffic to Multicast Network Functions (MNFs) implemented in software and executed in NFV environment at the edge of the network. Our approach provides smart, flexible and scalable group management and leverages centralized control of SDN for Lazy Load Balance Multicast (L2BM) traffic engineering policy in software defined ISP networks. Evaluation of this approach is tricky, as real world SDN testbeds are costly and not easily available for the research community. So, we designed a tool that leverages the huge amount of resources available in the grid, to easily emulate such scenarios. Our tool, called DiG, takes into account the physical resources (memory, CPU, link capacity) constraints to provide a realistic evaluation environment with controlled conditions. Our NFV-based approach requires multiple application specific functions (e.g., MNFs) to control and manage the network devices and process the related data traffic in an independent way. Ideally, these specific functions should be implemented directly on hardware programmable routers. In this case, new routers must be able to execute multiple independently developed programs. Packet-level programming language P4, one of the promising SDN-enabling technologies, allows applications to program their data traffic processing on P4 compatible network devices. In the second part of the thesis, we propose a novel approach to deploy and execute multiple independently developed and compiled applications programs on the same network device. This solution, called P4Bricks, allows multiple applications to control and manage their data traffic, independently. P4Bricks merges programmable blocks (parsers/deparsers and packet processing pipelines) of P4 programs according to processing semantics (parallel or sequential) provided at the time of deployment
3

Mabrouk, Lhoussein. "Contribution à l'implémentation des algorithmes de vision avec parallélisme massif de données sur les architectures hétérogènes CPU/GPU." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le mélange de gaussiennes (MoG) et l'acquisition comprimée (CS) sont deux algorithmes utilisés dans de nombreuses applications de traitement d'image et du son. Leur combinaison, CS-MoG, a été récemment utilisée pour la soustraction de fond dans des applications de détection des objets mobiles. Néanmoins, les implémentations de CS-MoG présentées dans la littérature ne profitent pas pleinement de l'évolution des architectures hétérogènes. Ces travaux de thèse proposent deux contributions pour l'implémentation efficace de CS-MoG sur architectures parallèles hétérogènes CPU/GPU. Ces dernières offrent de nos jours une grande flexibilité de programmation permettant d’optimiser les performances ainsi que l’efficacité énergétique.Notre première contribution consiste à offrir le meilleur compromis accélération-précision sur CPU et GPU. La seconde est la proposition d'une nouvelle approche adaptative de partitionnement de données permettant d'exploiter pleinement l'ensemble des CPUs-GPUs. Quelles que soient leurs performances relatives, cette approche, appelée Curseur de Distribution Optimale de Données (ODDC), vise à assurer un équilibrage automatique de la charge de calcul en estimant la proportion optimale des données qui doit être affectée à chaque processeur, en prenant en compte sa capacité de calcul.Cette approche met à jour ce partitionnement en ligne ce qui permet de prendre en compte toute influence de l'irrégularité du contenu des images traitées. En termes d’objets mobiles, nous ciblons principalement les véhicules dont la détection représente un ensemble de défis, mais afin de généraliser notre approche, nous testons également des scènes contenant d’autres types de cibles.Les résultats expérimentaux, sur différentes plateformes et jeux de données, montrent que la combinaison de nos deux contributions permet d'atteindre 98% des performances maximales possibles sur ces plateformes. Ces résultats peuvent être aussi bénéfiques pour d'autres algorithmes où les calculs s'effectuent d'une manière indépendante sur des petits grains de données
Mixture of Gaussians (MoG) and Compressive Sensing (CS) are two common algorithms in many image and audio processing systems. Their combination, CS-MoG, was recently used for mobile objects detecting through background subtraction. However, the implementations of CS-MoG presented in previous works do not take full advantage of the heterogeneous architectures evolution. This thesis proposes two contributions for the efficient implementation of CS-MoG on heterogeneous parallel CPU/GPU architectures. These technologies nowadays offer great programming flexibility, which allows optimizing performance as well as energy efficiency.Our first contribution consists in offering the best acceleration-precision compromise on CPU and GPU. The second is the proposition of a new adaptive approach for data partitioning, allowing to fully exploiting the CPUs-GPUs. Whatever their relative performance, this approach, called the Optimal Data Distribution Cursor (ODDC), aims to ensure automatic balancing of the computational load by estimating the optimal proportion of data that has to be affected to each processor, taking into account its computing capacity.This approach updates the partitioning online, which allows taking into account any influence of the irregularity of the processed images content. In terms of mobile objects, we mainly target vehicles whose detection represents some challenges, but in order to generalize our approach, we test also scenes containing other types of targets.Experimental results, on different platforms and datasets, show that the combination of our two contributions makes it possible to reach 98% of the maximal possible performance on these platforms. These results can also be beneficial for other algorithms where calculations are performed independently on small grains of data
4

Castanié, Laurent. "Visualisation de données volumiques massives : application aux données sismiques." Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL083N/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique
Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
5

Buslig, Leticia. "Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4734/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Saade, Julien. "Encodage de données programmable et à faible surcoût, limité en disparité et en nombre de bits identiques consécutifs." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM079/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Grace à leur simplicité de routage, la réduction du bruit, de la consommation d'energie, d'espace de routage et d'interférences électromagnétiques en comparaison avec les liaisons parallèles, les Liaisons Série Haut Débit (High-Speed Serial Links) se trouvent aujourd'hui dans la grande majorité des systèmes sur puce (SoC) connectant les différents composants : la puce principale avec ses entrées/sorties, la puce principale avec une autre puce, la communication inter-processeurs etc…Par contre, changer des liaisons parallèles pour utiliser des liaisons séries haut débit présente plusieurs défi : les liaisons série haut débit doivent tourner à des fréquences plus élevées que celle des liaisons parallèles pour atteindre plusieurs Gigabits par seconde (Gbps) pour garder le même débit que celui des liaisons parallèles, tout en répondant à l'augmentation exponentielle de la demande de débit. L'atténuation du signal sur le cuivre augmente avec la fréquence, nécessitant de plus en plus d'égaliseurs et de techniques de filtrage, et donc augmentant la complexité du design et la consommation d'énergie.L'une des façons pour optimiser le design avec des hautes fréquences c'est d'intégrer l'horloge dans la ligne de données, car une ligne d'horloge implique plus de surface de routage et elle pourra bien devenir une source d'interférences électromagnétiques (EMI). Une autre bonne raison pour utiliser une horloge intégrée c'est que la déviation du signal d'horloge par rapport au signal de data (skew en anglais) devient difficile à contrôler sur des fréquences élevées. Des transitions doivent donc être assurées dans les données transmises, pour que le récepteur soit capable de se synchroniser et de récupérer les données correctement. En d'autres termes, le nombre de bits consécutifs, aussi appelé la Run Length (RL) en anglais doit être réduit ou borné à une certaine limite.Un autre défi ou caractéristique à réduire ou borner dans les données à transmettre est la différence entre le nombre de bits à 1 et le nombre de bits à 0 transmis. On l'appelle la disparité RD (de l'anglais Running Disparity). Les grands écarts entre le nombre de bits à 1 et les bits à 0 transférés peuvent provoquer un décalage du signal par rapport à la ligne de base. On appelle ça le Baseline Wander en anglais (BLW). Le BLW pourra augmenter le taux de bits erronés (Bit Error Rate – BER) ou exiger des techniques de filtrage et d'égalisations au récepteur pour être corrigé. Cela va donc augmenter la complexité du design et la consommation d'énergie.Pour assurer une RL et une RD bornées, les données à transmettre sont généralement encodés. A travers le temps, plusieurs méthodes d'encodages ont été présentées et utilisées dans les standards ; certaines présentent de très bonnes caractéristiques mais au cout d'un grand nombre supplémentaire de bits, en anglais appelé Overhead, affectant donc le débit. D'autres encodages ont un overhead moins important mais n'assurent pas les mêmes limites de RL et de RD, et par conséquence ils nécessitent plus de complexité analogique pour corriger les conséquences et donc augmentant ainsi la consommation d'énergie.Dans cette thèse, on propose un nouvel encodage de données qui peut borner la RD et la RL pour les bornes souhaités, et avec un très faible cout sur la bande passante (l'overhead). Ce codage permet de borner la RL et la RD aux mêmes limites que les autres codages et avec un overhead 10 fois moins important.Dans un premier temps on montre comment on peut borner la RL à la valeur souhaitée avec un codage à très faible overhead. Dans un second temps on propose un encodage très faible cout pour borner la RD à la valeur souhaitée aussi. Ensuite on montrera comment on pourra fusionner ces deux encodages en un seul, pour construire un encodage de données programmable et à faible cout de bande passante, limité en disparité et en nombre de bits identiques consécutifs
Thanks to their routing simplicity, noise, EMI (Electro-Magnetic Interferences), area and power consumption reduction advantages over parallel links, High Speed Serial Links (HSSLs) are found in almost all today's System-on-Chip (SoC) connecting different components: the main chip to its Inputs/Outputs (I/Os), the main chip to a companion chip, Inter-Processor Communication (IPC) and etc… Serial memory might even be the successor of current DDR memories.However, going from parallel links to high-speed serial links presents many challenges; HSSLs must run at higher speeds reaching many gigabits per second to maintain the same end-to-end throughput as parallel links as well as satisfying the exponential increase in the demand for throughput. The signal's attenuation over copper increases with the frequency, requiring more equalizers and filtering techniques, thereby increasing the design complexity and the power consumption.One way to optimize the design at high speeds is to embed the clock within the data, because a clock line means more routing surface, and it also can be source to high EMI. Another good reason to use an embedded clock is that the skew (time mismatch between the clock and the data lanes) becomes hard to control at high frequencies. Transitions must then be ensured inside the data that is sent on the line, for the receiver to be able to synchronize and recover the data correctly. In other words, the number of Consecutive Identical Bits (CIBs) also called the Run Length (RL) must be reduced or bounded to a certain limit.Another challenge and characteristic that must be bounded or reduced in the data to send on a HSSL is the difference between the number of ‘0' bits and ‘1' bits. It is called the Running Disparity (RD). Big differences between 1's and 0's could shift the signal from the reference line. This phenomenon is known as Base-Line Wander (BLW) that could increase the BER (Bit Error Rate) and require filtering or equalizing techniques to be corrected at the receiver, increasing its complexity and power consumption.In order to ensure a bounded Run Length and Running Disparity, the data to be transmitted is generally encoded. The encoding procedure is also called line coding. Over time, many encoding methods were presented and used in the standards; some present very good characteristics but at the cost of high additional bits, also called bandwidth overhead, others have low or no overhead but do not ensure the same RL and RD bounds, thus requiring more analog design complexity and increasing the power consumption.In this thesis, we propose a novel programmable line coding that can perform to the desired RL and RD bounds with a very low overhead, down to 10 times lower that the existing used encodings and for the same bounds. First, we show how we can obtain a very low overhead RL limited line coding, and second we propose a very low overhead method which bounds the RD, and then we show how we can combine both techniques in order to build a low overhead, Run Length Limited, and Running Disparity bounded Line Coding
7

Karam, Sandrine. "Application de la méthodologie des plans d'expériences et de l'analyse de données à l'optimisation des processus de dépôt." Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/8f5029e5-3ced-4997-973f-2cc455e74bf1/blobholder:0/2004LIMO0044.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Traditionnellement, un chercheur effectue des expériences de manière séquentielle en faisant varier les paramètres les uns après les autres. Cette méthode donne des résultats mais elle est coûteuse en temps et nécessite la réalisation d’un grand nombre d’expériences. Les méthodes d’analyses de données permettent de collecter, de résumer et de présenter des données de façon à en tirer le maximum d’informations pour la suite des expériences. Pour mener une recherche expérimentale planifiée, la méthodologie des plans d’expériences est utilisée. Cette démarche aide l’expérimentateur à structurer sa recherche de manière différente, à valider ses propres hypothèses, à mieux comprendre les phénomènes étudiés et à solutionner les problèmes. L’objectif de cette thèse est de présenter, à travers des exemples d’applications liés à l’élaboration de dépôts, la mise en œuvre et l’intérêt de ces méthodes destinées à tout expérimentateur désirant optimiser l’efficacité de sa recherche expérimentale
Traditionally, a scientist carries out experiments in a sequential way by varying the parameters the ones after the others. This method gives results but is very expensive in time because it inevitably requires the realization of a great number of experiments. This is why it is important to help the scientist to achieve his experiments with data analyses and experimental design methods. Data analysis makes it possible to collect, summarize and present data so as to optimize the way to implement next experiments. By using experimental design, the scientist knows how to plan experiments. This experimental step will help him to structure his research in a different way, to validate his own assumptions, with better understanding the studied phenomena, and to solve the problems. The objective of this thesis is to present, through examples of applications related to the development of deposits, the elaboration and the interest of these methods
8

Lopez, Philippe. "Comportement mécanique d'une fracture en cisaillement, analyse par plan d'expériences des données mécaniques et morphologiques connues sur une fracture." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ57923.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Lopez, Philippe. "Comportement mécanique d'une fracture en cisaillement : analyse par plan d'expériences des données mécaniques et morphologiques connues sur une fracture." Thèse, Bordeaux 1, 2000. http://constellation.uqac.ca/949/1/12127341.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une série d'essais mécaniques en cisaillement sur des répliques en mortier d'une fracture rocheuse (Flamand, 2000) a permis de mettre en évidence l'influence de la morphologie sur le comportement mécanique en cisaillement. Partant de ces essais on se propose d'établir un modèle du comportement et de déterminer quels sont les paramètres ou facteurs morphologiques les plus influents sur le comportement. A cette fin une revue bibliographique dans le domaine du comportement mécanique des fractures rocheuses a été réalisée ; il en ressort que les modèles actuels ne permettent pas de modéliser en une seule fois, le comportement sur toute la gamme des déplacements horizontaux. Dans un premier temps, une simulation géostatistique de la surface des épontes rocheuses est effectuée pour calculer, quelle que soit la direction de déplacement relatif des épontes, les valeurs de facteurs morphologiques ; on en retient quatre RL, Z3, 62, Z4. Dans un deuxième temps, un plan d'expériences prenant en compte des facteurs mécaniques (contrainte normale et déplacement horizontal) et les facteurs morphologiques précédents est construit; les résultats qui en découlent sont analysés. Les résultats du plan permettent d'obtenir un modèle de simulation du comportement pour des contraintes normales comprises entre 0 % et 30 % de la résistance en compression du matériau utilisé pour les répliques, pour des déplacements tangentiels compris entre 0 mm et 5 mm, et pour toutes les directions de déplacements horizontaux. Le facteur morphologique Z3 se distingue des autres ; on montre que son influence sur le comportement est très faible. Les facteurs morphologiques (RL, Z4 et 82) influencent de façon significative le comportement mécanique en cisaillement, soit la dilatance, et la contrainte tangentielle. Tenant compte des résultats d'une étude des erreurs de prédiction, une nouvelle série d'essais est proposée respectant une répartition uniforme des niveaux du facteur morphologique 02.
10

Plessis, Gaël. "Utilisation du formalisme flou pour l'identification modale à partir de données expérimentales incertaines." Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/0201670a-9b60-45b4-979f-f37adefecde6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prise en compte des incertitudes de mesure en identification modale est un problème très global. Il est constaté dans cette étude que généralement la connaissance sur un système mécanique n'est pas suffisante pour que sa représentation en laboratoire soit unique. Il est alors proposé de prendre en compte cette incertitude sur la configuration expérimentale dans le processus d'identification modale. L'approche possibiliste est choisie pour développer une méthodologie originale qui soit capable de déterminer l'incertitude sur les solutions propres identifiées compte tenu de cette incertitude. Il est proposé dans un premier temps de formaliser l'incertitude sur les données expérimentales par une description possibiliste des réponses dynamiques mesurées. Dans un second temps il s'agit de traiter ces réponses complexes floues dans le processus d'identification afin de déterminer l'incertitude sur les solutions modales identifiées. Trois techniques de résolution sont alors abordées. Chacune d'elles met en évidence de nouvelles difficultés qui servent de base à la construction des suivantes. La synthèse de ces approches permet finalement de proposer une méthodologie, validée numériquement, capable de répercuter l'incertitude des réponses sur les solutions propres identifiées. Cette méthodologie est finalement exploitée dans un contexte expérimental. Cette étude est organisée suivant un plan d'expériences de manière à confronter les solutions issues de l'analyse statistique des résultats à celles données par la méthodologie proposée. Les solutions entre les deux approches se montrent alors cohérentes
Modal identification with uncertain data is a global problem. It is established in this study that generally, knowledge about a mechanical system is not sufficient to describe only one possible experimental representation of this system. It is proposed to take into account this experimental representation uncertainty in the modal identification process. An original method, based on the possibilitic approach is developed to give modal solutions uncertainty from the uncertain representation of the system. First, a possibilistic description of experimental dynamical responses is given in order to take into account experimental data uncertainty. Secondly, these fuzzy complex responses are introduced in the identification process in order to compute uncertainty of estimate modal solutions. Three approaches are hence considered. Each one bring about new difficulties that are then considered according in order to formulate the next solution. These approaches are finally synthesised into a new one, which is numerically validated and capable to reverberate data uncertainty into estimated modal solutions. Finally, this method is exploited in an experimental context. This study is organised following an exeprimental layout in order to make a confrontation between the statistical analysis solutions and fuzzy method ones. Results from both approaches are coherent

Книги з теми "Plan de données programmable":

1

Ontario. Esquisse de cours 12e année: Mathématiques de la gestion des données mdm4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Michael, Cheliak William, Canadian Forestry Service, Geomatics International, and Service canadien des forêts, eds. Spatial information management concepts and strategies for the Canadian Forest Service : a blueprint for actions towards a Canadian forest spatial data infrastructure : report =: Concepts et stratégies de gestion de l'information spatiale pour le Service canadien des forêts : plan d'action pour une infrastructure de données spatiales concernant les forêts canadiennes : rapport. Ottawa, Ont: Canadian Forest Service = Service canadien des forêts, 1996.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Maxwell, Scott E. Designing experiments and analyzing data: A model comparison perspective. Mahwah, NJ: Lawrence Erlbaum Associates, 1999.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Maxwell, Scott E. Designing experiments and analyzing data: A model comparison perspective. 2nd ed. Mahwah, N.J: Lawrence Erlbaum Associates, 2004.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Maxwell, Scott E. Designing experiments and analyzing data: A model comparison perspective. Belmont, Calif: Wadsworth Pub. Co., 1990.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Maxwell, Scott E. Designing experiments and analyzing data: A model comparison perspective. 2nd ed. Mahwah, NJ: Lawrence Erlbaum Associates, Publishers, 2003.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ontario. Esquisse de cours 12e année: Sciences de l'activité physique pse4u cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Ontario. Esquisse de cours 12e année: Technologie de l'information en affaires btx4e cours préemploi. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Ontario. Esquisse de cours 12e année: Études informatiques ics4m cours préuniversitaire. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Ontario. Esquisse de cours 12e année: Mathématiques de la technologie au collège mct4c cours précollégial. Vanier, Ont: CFORP, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Plan de données programmable":

1

Leischner, Vojtěch. "Light Fixtures Position Detection Using a Camera." In Digital Interaction and Machine Intelligence, 3–11. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37649-8_1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
AbstractInterdisciplinary research combines computer vision with stage light design to automatically detect light fixtures’ positions to create light animations. Multiple programmable light fixtures are often used in theaters, the event industry, and interactive installations. When creating complex animations such as a wave traveling from one side to the other through multiple light fixtures array, all lights’ positions must be known beforehand. Traditionally the position of the light is marked in the technical plan. However, technicians make mistakes during the installation and sometimes install the light in a different position. In such a case, time-consuming troubleshooting is needed to determine which light is misplaced and either correct the position in the software or manually move the light to the correct position. Our system saves time during installation and produces a light id and position pairs that users can use in various lighting control software. As a result, users can improvise and change the light positions more intuitively without needing a technical plan. Our system saves installation costs and enables rapid prototyping of light shows to create previously impossible organic designs. We verified the system in a controlled experiment and measured the influence of camera resolution on accuracy.
2

Sergi, Gianna. "Le Data Management Plan, DMP ou le Plan de Gestion de données, PGD et OPIDoR." In Département de bibliométrie et des ressources en ligne , 1–25. Paris : Collège de France, 2017. http://dx.doi.org/10.54510/drlbsr2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

BURNAT, P., A. HOULGATTE, and S. AUSSET. "Indicateurs de valorisation des publications scientifiques." In Médecine et Armées Vol. 44 No.3, 235–41. Editions des archives contemporaines, 2016. http://dx.doi.org/10.17184/eac.6812.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les bases de données ont pour principaux objectifs de diffuser les travaux scientifiques et de permettre leur utilisation par l’ensemble de la communauté scientifique. Parallèlement s’est développée la notion de bibliométrie permettant d’appréhender la production par auteur et par institution afin de permettre sa valorisation tant sur le plan individuel que collectif. Il existe plusieurs indicateurs et plusieurs bases de données qui ne sont pas équivalentes. Purement bibliographiques, bibliométriques ou encore mixtes, elles ne fournissent pas des indicateurs de même nature. Il apparaît actuellement pertinent que le Service de santé des armées intègre ces données afin d’évaluer la qualité des publications scientifiques et l’implication en recherche clinique de ses praticiens et de ses établissements. Nous décrivons les principales bases utilisées et les indicateurs associés (Pubmed, Scopus, h-index, score SIGAPS, Researchgate) avec leurs intérêts respectifs pour l’Institution.
4

Cartier, Aurore, Magalie Moysan, and Nathalie Reymonet. "Gestion des données, partage et conservation pérenne avec le Data Management Plan." In Expérimenter les humanités numériques, 159. Les Presses de l’Université de Montréal, 2017. http://dx.doi.org/10.1515/9782760638037-012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

SNEDDON, Lynne U. "Douleur et peur chez les poissons : impact de la recherche sur les usages." In La souffrance animale, 205–33. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9121.ch10.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce chapitre traite de la souffrance et de la peur chez les poissons, en s’appuyant sur les récentes études biologiques qui montrent la capacité de ces animaux à éprouver des états émotionnels négatifs, comparables à ceux des mammifères. Ce chapitre défend également l’idée que les données scientifiques produites sur les poissons ont des incidences importantes sur le plan éthique.
6

Paulet, Elisabeth, and Hareesh Mavoori. "Recherches sur la Sustainability." In Recherches sur la Sustainability, 190–212. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.cheva.2023.01.0190.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réformes bancaires et la régulation ont transformé les facteurs de l’efficacité bancaire. Sur la base de données individuelles de plus de 90 banques européennes, américaines, chinoises et indiennes, nous examinons sur une période de 15 ans (2002-2016) l’évolution de ces facteurs en utilisant une analyse d’enveloppement des données et une frontière stochastique. Notre résultat principal prouve que la libéralisation financière a uniformisé les stratégies bancaires : les statuts ne sont pas les principaux critères pour expliquer l’efficacité. Sur le plan managérial, le contrôle des coûts et la recherche de liquidités sont devenus des facteurs essentiels pour améliorer l’efficacité. L’introduction de considération de développement durable montre en outre le difficile arbitrage entre soutenabilité et performance.
7

"Questionnaire de recueil d’informations et de données concernant les pays du TER et leur réseau ferroviaire." In Chemin de fer transeuropéen à grande vitesse étude du plan directeur: Phase 2, 325–26. United Nations, 2023. http://dx.doi.org/10.18356/9789210054966c010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

ALOIRD, J., J. P. FREIERMUTH, and J. BOISSIER. "Spécificités et contraintes du transport de patients lors des missions d’évacuations médicalisées par hélicoptère de manoeuvre." In Médecine et Armées Vol. 46 No.4, 331–38. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7322.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les évacuations médicalisées de l’avant par hélicoptère de manoeuvre sont des missions particulières aussi bien sur le plan organisationnel que sur le plan technique. Ce maillon de la chaîne d’évacuation se base sur une alerte permanente avec un équipage, une équipe médicale et un hélicoptère dédié. Lors du déclenchement d’une évacuation, quatre phases se succèdent. Celles-ci sont dans l’ordre : une préparation du vol succincte, une phase de vol aller vers le blessé, une phase au sol avec les transmissions des données médicales et une phase retour pendant laquelle le blessé doit bénéficier des meilleurs soins. Cette mission assez particulière est soumise à plusieurs contraintes qui doivent être appréhendées correctement pour la mener à bien : des contraintes aéronautiques notamment les performances de l’aéronef, la météo, le bruit, les cinétoses ; des défis tactiques comme les communications ou les problèmes de vision nocturne ; et enfin des problématiques médicales avec un exercice dans un milieu restreint pouvant inclure la prise en charge simultanée de plusieurs blessés. Les différentes pistes d’améliorations passent probablement par un entraînement spécifique avec le stage de médicalisation tactique en hélicoptère de manoeuvre, une évolution des moyens de communication, une standardisation des procédures de protection du médecin au sol, et enfin une avancée dans les équipements médicaux et les traitements disponibles en vol.
9

ALLAMBADEMEL, Vincent de Paul. "Les écoles tchadiennes face aux défis du COVID-19." In Les écoles africaines à l’ère du COVID-19, 71–86. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.7921.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au Tchad, la survenue du COVID-19~a freiné toutes les activités, touchant ainsi durement les écoles. Ces dernières ont néanmoins développé des stratégies pour faire face aux défis éducatifs de cette pandémie. Les premiers plans de riposte incluaient la fermeture des écoles, instituts et universités sur toute l'étendue du territoire, ainsi que la mise en œuvre d'un plan de riposte pour éviter une année blanche. Les managers éducatifs ont ainsi créé des nouveaux modes de formation, à travers la télévision, la radio et les cours en ligne. Ce chapitre met en relief les stratégies et les limites des réponses que le système éducatif tchadien a adoptées pour faire face au COVID-19~et ses effets. Il analyse aussi l'efficacité des mesures mises en place sur le plan pédagogique et sanitaire, et appréhende les habitudes, les pratiques et l'état psychologique des apprenants, parents et enseignants. Pour réaliser ce travail, nous avons utilisé la méthode qualitative qui met en avant le processus de communication verbale pour recueillir des informations. Cette méthode inclut l'attention volontaire et l'intelligence orientée pour avoir les informations et interpréter les pratiques pendant la période de la COVID-19. Il ressort de l'analyse de nos données d'entretien et observation que les stratégies d'urgence ont eu un impact positif sur le plan sanitaire~; mais les avis sont mitigés quant aux stratégies mises en place pour sauver l'année scolaire. Nos résultats mettent également en avant les effets des mesures barrières qui impactent drastiquement la vie socioéconomique et culturelle des tchadiens.
10

BERTUCCI, Marie-Madeleine, and Mounia ILLOURMANNE. "Transcrire un corpus audio dans la perspective de la préservation du patrimoine culturel immatériel." In Corpus audiovisuels, 115–24. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5704.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumés Marie-Madeleine Bertucci L’article a pour objet « l’étude de la mise en mots de la mémoire des « Chibanis » du quartier de la Goutte d’or à Paris » à partir d’un corpus d’entretiens biographiques audio. Ces entretiens ont été réalisés par Jean-Marc Bombeau, dans les locaux de la galerie associative l’Échomusée, située rue Cavé dans le XVIIIe arrondissement de Paris, avec un groupe de Chibanis ou anciens du quartier de 2010 à 2012. Cette étude discursive mémorielle est le sujet de la thèse de Mounia Illourmane. Ces entretiens font émerger la mémoire de ces acteurs sociaux en les conduisant à jeter un regard rétrospectif et réflexif sur leur passé, de leur arrivée à Paris dans les années soixante, dans le cadre d’une immigration de travail jusqu’à leur retraite qui prend effet dans la période contemporaine. Ils autorisent l’émergence d’un processus de patrimonialisation de données mémorielles qui constituent le socle d’un patrimoine immatériel. Les entretiens ont visé à la fois le passé et le présent et ont cherché à mettre en lumière, à travers le travail sur la mémoire, le retour rétrospectif sur le passé, l’historicité du présent et les types de liens sociaux tissés à travers l’expérience de l’exil. Au plan théorique, la réflexion s’inscrit dans la perspective des cultural et des subaltern studies pour mettre en évidence le caractère fragmentaire et discontinu de ces récits mémoriels par le biais d’une étude du lexique privilégié par les énonciateurs. Le patrimoine culturel immatériel, porté par la convention de l’UNESCO du 17 octobre 2003, et sa conservation supposent deux types de questionnements. D’une part, il s’agit de concevoir différemment les politiques patrimoniales, en les envisageant du point de vue des détenteurs du patrimoine et non plus seulement du point de vue des experts, d’autre part d’élaborer des modalités de préservation des données autres que celles du patrimoine matériel, ce sur quoi va porter l’article. Mounia Illourmane Ce sujet m’a été proposé par ma directrice de thèse Marie-Madeleine Bertucci. Jean-Marc Bombeau a mis à notre disposition un ensemble de données brutes (séquences vidéo, bandes son et photos), sauvegardées sur un disque dur. Avec ma directrice de recherche, nous avons conçu un outil de classement, d’indexation et d’arborescence des données pour déterminer la nature et la quantité des matériaux à exploiter. À partir d’une démarche muséale et ethnographique, il s'agit de transcrire un corpus audio dans une perspective de conservation d'archives et de valorisation de données peu accessibles matériellement et s’inscrivant dans le cadre du patrimoine culturel immatériel. Néanmoins au cours de cette tâche, sont apparues certaines difficultés d'ordre technique, étant donné que le corpus n'est pas destiné à cet effet, la prise de son est artisanale ce qui a rendu la transcription plus complexe. Face à des locuteurs non natifs avec un accent prononcé, les logiciels de reconnaissance vocale et de transcription automatique sont inadaptés. Par conséquent, le choix des outils s'est porté sur deux logiciels informatiques, « Express Scribe » et « E-Speaking ». Le premier est un logiciel professionnel de lecture audio conçu pour faciliter la transcription des enregistrements audio. Grâce à cet outil on peut contrôler la vitesse de lecture audio ainsi avoir une lecture à vitesse variable. « E-Speaking » est un logiciel de contrôle et de reconnaissance vocale qui a pour fonction la dictée et l'exécution des tâches sur ordinateur avec la voix de l'utilisateur. On l’a utilisé notamment pour accélérer le travail de transcription des bandes son. L'emploi de ces deux outils a permis la transcription en restant le plus fidèlement possible à l'original tout en tenant compte des nombreuses contraintes d'ordre syntaxique, orthographique et phonologique résultant du caractère oral des données.

Тези доповідей конференцій з теми "Plan de données programmable":

1

Tian, Yongjie, Yan Li, Beibei Li, Donghao Zheng, Wei Li, Xiaobin Hong, Yong Zuo, and Jian Wu. "Programmable mode switch based on multi-plan light conversion (MPLC) for mode division multiplexing networks." In 2017 Opto-Electronics and Communications Conference (OECC) and Photonics Global Conference (PGC). IEEE, 2017. http://dx.doi.org/10.1109/oecc.2017.8114913.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Maerani, Restu, Arya Adhyaksa Waskita, Satrio Pradana, Saharudin, Deswandri, and Jae Cheon Jung. "Reliability program plan for field programmable gate array-based I&C system of nuclear power plant." In THE 4TH BIOMEDICAL ENGINEERING’S RECENT PROGRESS IN BIOMATERIALS, DRUGS DEVELOPMENT, HEALTH, AND MEDICAL DEVICES: Proceedings of the International Symposium of Biomedical Engineering (ISBE) 2019. AIP Publishing, 2019. http://dx.doi.org/10.1063/1.5135544.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Tavares, Kairo, and Tiago Coelho Ferreto. "DDoS on Sketch: Spoofed DDoS attack defense with programmable data plans using sketches in SDN." In XXXVII Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbrc.2019.7404.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Distributed Denial of Service (DDoS) attacks continues to be a major issue in todays Internet. Over the last few years, we have observed a dramatic escalation in the number, scale, and diversity of these attacks. Among the various types, spoofed TCP SYN Flood is one of the most common forms of volumetric DDoS attacks. Several works explored the flexible management control provided by the new network paradigm called Defined Networking Software (SDN) to produce a flexible and powerful defense system. Among them, data plane based solutions combined with recent flexibility of programmable switches aims to leverage hardware speed and defend against Spoofed Flooding attacks. Usually, they implement anti-spoofing mechanisms that rely on performing client authentication on the data plane using techniques such as TCP Proxy, TCP Reset, and Safe Reset. However, these mechanisms have several limitations. First, due to the required interaction to authenticate the client, they penalize all clients connection time even without an ongoing attack. Second, they use a limited version of TCP cookies to detect a valid client ACK or RST, and finally, they are vulnerable to a buffer saturation attack due to limited data plan resources that stores the whitelist of authenticated users. In this work, we propose the use of sketch-based solutions to improve the data plane Safe Reset anti-spoofing defense mechanism. We implemented our solution in P4, a high-level language for programmable data planes, and evaluate our solution against a data plan. Safe Reset technique on an emulated environment using Mininet.
4

King, Dan A., and Jim Patrick. "Development of a Programmable Logic Controller Based Fuel Control System for the G.E. LM-1600 Gas Turbine." In ASME 1997 International Gas Turbine and Aeroengine Congress and Exhibition. American Society of Mechanical Engineers, 1997. http://dx.doi.org/10.1115/97-gt-314.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nova Gas Transmission Ltd. (NGTL) has been developing integrated turbine fuel control systems since the late 1980s. This is part of a long term vision to completely integrate the control systems at its compressor stations. These systems are integrated into the “off the shelf” Programmable Logic Controller (PLC) used for unit sequencing and shutdowns. As part of this effort NGTL began development of a fuel control system for the General Electric LM-1600 gas turbines in 1993. These systems, now successfully in service, proved to be the most challenging to develop. NGTL uses gas turbine packages, eleven of which are LM-1600s, to drive the compressors used in its gas pipeline system. This paper includes some brief background reasons why NGTL has chosen to develop fuel control systems and describes in detail the development of the fuel control system for the LM-1600. Discussion of the control challenges of the LM-1600 includes fuel throttle valve and actuator selection and options, control system hardware and software development (consistent with the General Electric Installation Design Manual (IDM) requirements) and, engine model development. The model application, office testing, site performance testing and the static and dynamic test results are also discussed. The paper also describes NGTL’s future plan for installation of LM-1600 fuel control systems on its fleet.
5

Grey, David S. "Starting a lens design." In OSA Annual Meeting. Washington, D.C.: Optica Publishing Group, 1990. http://dx.doi.org/10.1364/oam.1990.mm1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The first step in selecting a starting configuration is a careful study of requirements. Vignetting, mechanical limits, unusual pupil requirements, unusual distortion specification or allowance, resolution, and method of evaluation are basic requirements. Question the client: Some specifications may be rigid, and others may be target values. The client may know a configuration you have missed. Usually one starts with a known model and plans to make modifications; otherwise, one has no reason to expect success. Useful configurations to consider as added components are field flatteners, aplanatic surfaces, surfaces with the A-stop imaged near the center of curvature, and the separated doublet for correcting high-order spherical aberration. The plan should be based on full consideration of all limiting aberrations of the model. A well-reasoned conjecture about the cause of limiting aberrations and a plan for their alleviation is always worth a hard try. Sometimes thin-lens algebraic solutions of firstorder requirements, or even third-order aberrations, can be useful—especially for relay systems. A simple interactive program, or even a programmable calculator, can be invaluable in converting to a thick-lens starting model. Finally, a starting model can be based on the conjecture "What would happen if...?"
6

Noaillon, E., S. Azogui-Lévy, G. Lescaille, R. Toledo, V. Descroix, P. Goudot, and J. Rochefort. "Impact des recommandations de l’ANSM dans la prise en charge en cabinet libéral des collections circonscrites aiguës suppurées de la cavité orale d’origine dentaire : enquête nationale." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction: La prise en charge des collections circonscrites aiguës suppurées d’origine dentaire (CCASD) implique un drainage, le traitement de la dent causale ainsi que la mise en place d’une antibiothérapie dont le choix repose actuellement sur les recommandations de l’ANSM (recommandations AFSSAPS, 2011). En première intention, elles préconisent la prescription d’amoxicilline (2g/jours) ou clindamycine (1200g/jour) en cas d’allergie; en seconde intention, une bithérapie associant classiquement l’amoxicilline à l’acide clavulanique ou au métronidazole. L’émergence de mécanismes de résistances bactériennes a conduit à la mise en place d’actions favorisant une meilleure utilisation des antibiotiques. La France s’inscrit parmi les plus gros consommateurs en Europe (ANSM 2017): une surconsommation globale, une utilisation trop fréquente de molécules à large spectre en pratique courante. Dans ce contexte, l’ANSM a émis des recommandations sur la prescription des antibiotiques pour la prise en charge des CCASD. Sachant que 90% des prescriptions sont faites en ville dont 8% par les chirurgiens-dentistes (CD), il est paru nécessaire de connaître leur attitude. Nous avons donc souhaité évaluer l’impact des recommandations de l’ANSM chez les CD en France, dans la prise en charge des CCASD. Matériel et méthode: Nous avons réalisé une enquête nationale, en collaboration avec l’UFSBD (Union Francaise pour la Santé Bucco-Dentaire), regroupant 15000 praticiens, ayant recu le questionnaire par mail. Il comprenait 28 questions sur quatre thèmes principaux: prise en charge des CCASD, connaissance des recommandations, leur application, formations professionnelles initiales et continues. Résultats: Sur l’ensemble des praticiens, 690 (4,6%) ont participé à l’étude. 13% suivent de manière stricte les recommandations et 70,5% réalisent un acte clinique le jour de l’urgence : il correspond à 98% à un drainage (par voie muqueuse ou ouverture de la dent). Dans seulement 1/3 des cas la prescription de première intention se portait sur l’amoxicilline seule. 44% y associent des anti-inflammatoires. 68% des praticiens reconnaissent connaître les recommandations de l’ANSM par leur formation initiale (36%), une revue professionnelle (27%) ou un congrès (19%). La plupart suit une formation continue (77% une revue professionnelle, 90% un congrès, 38% un cursus de formation continue théorique). 89% prescrivent des anti-inflammatoires lors de la consultation d’urgence. Conclusion: Il existe peu de données évaluant l’impact des recommandations concernant ce sujet, mais il est communément admis qu’elles sont peu suivies (Gaillat et al 2005), ce que révèle également notre étude. Les raisons invoquées sont multiples : désaccord des praticiens sur l’efficacité des recommandations, manque de temps, contraintes organisationnelles. Bien que la bithérapie soit considérée comme plus efficace par les CD interrogés pour traiter les CCASD, les experts s’accordent à dire qu’elle participe à la création de la résistance bactérienne, considérée comme ≪ l’une des plus graves menaces pesant sur la santé mondiale ≫, et faisant l’objet d’un plan d’action mondial mis en place par l’OMS et l’ONU en 2015 (OMS, 2017).
7

Abdelaal, Khaled, Ken Atere, Keith LeRoy, Aaron Eddy, and Russell Smith. "Holistic Real-Time Drilling Parameters Optimization Delivers Best-in-Class Drilling Performance and Preserves Bit Condition - A Case History from an Integrated Project in the Middle East." In SPE Canadian Energy Technology Conference. SPE, 2022. http://dx.doi.org/10.2118/208958-ms.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Abstract After drilling in the Gulf area of Middle East for approximately nine months, the operation’s project team struggled to find a consistent and repeatable roadmap for significant rate of penetration (ROP) improvements. The team was relying on the driller to manually control the ROP, weight on bit (WOB), differential pressure, pump pressure, and torque. Regardless of the driller’s experience, it is difficult for a single person to successfully monitor and adjust for multiple and continuously changing variables in real time. Extreme variation and lack of control on drilling parameters (such as WOB, torque, and differential pressure) prevented repeatable ROP improvements, despite having a sound drilling plan. To solve this problem, the team tasked a third party to 1) deploy its electronic drilling recorder (EDR) to improve data quality, 2) integrate its multi-parameter DAS™ system into the rig’s programmable logic controls (PLC) system, and 3) deploy drilling optimization software solutions in real time. The overall objective was to build a decision-supporting tool to overcome the main ROP limiters through proper identification and mitigation, thus yielding higher ROP and creating newly optimized drilling parameters for future wells. A pilot program consisting of two rigs and six wells per rig (12 wells in total) was executed utilizing this new approach. Over each section of each well, the team followed a traditional continuous improvement cycle of "Identify– Plan – Execute – Review". The EDR was able to accurately identify and record the drilling control limits (such as for ROP, WOB, torque, or differential pressure). The DAS system was also able to demonstrate improved control of WOB, ROP and, torque limits, and target differential pressures. Delivering this information in real time encouraged conversations around modifications to the existing well plan. During post-well analysis, the data allowed the optimization team to clearly identify the limiter of each hole section for changes in future well planning. A flexible dashboard platform was utilized to assist the optimization team by developing enhanced graphics to improve the visibility and accuracy of the real-time performance monitoring. These dashboards target critical operations and allow more data to be taken into consideration, thus providing a more holistic and structured decision-making process. The pilot program showed measurable improvement in several areas. Overall, on-bottom ROP improved by 10.5%, shoe track drill-out times were reduced by 31%, and physical inspections showed significant reductions in bit wear. Additionally, the higher quality of data recording contributed to a noticeable improvement on processing multiple data-analytics modules. This paper describes the challenges and step-by-step chronology of solutions deployed to achieve continuous improvement and to maximize ROP by effectively focusing on process execution. The knowledge required to execute a fit-for-purpose drilling optimization plan was the objective to the solution described in this work. This paper also provides a holistic view of the entire drilling system, along with insight into drilling parameters that can improve efficiency from planning to the execution phase.
8

Andersson, Fred. "Groupe µ and “the system of plastic form” -for an evaluation-." In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden & Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden & Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
9

Baranes, M., and T. Fortin. "Planification et chirurgie guidée - Avis d’experts : Apports des nouvelles technologies en implantologie : de la planification à la réalisation de la prothèse provisoire immédiate." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les dernières technologies informatiques ainsi que le développement des imprimantes 3D ouvrent des perspectives intéressantes en terme de diagnostic et de thérapeutique en implantologie (1). Le plan de traitement prothétique doit guider le choix du nombre et du positionnement des implants. Les logiciels de planification implantaire permettent de superposer les fichiers DICOM (Digital Imaging and Communications in Medicine) de limagerie tridimensionnelle issue du CBCT et les données numériques de surface issues d’empreintes optiques ou de la numérisation de modèles conventionnels (2). Les modélisations occlusales peuvent être elles aussi réalisées virtuellement en statique et dynamique via l’utilisation darticulateurs virtuels (3,4). Un guide chirurgical est alors imprimé permettant de positionner les implants selon la planification virtuelle. Dans certains cas, la restauration provisoire peut être prévue à l’avance et mise en place à lissue de lintervention (5,6). Bien quil soit établit que la chirurgie guidée soit plus précise que la chirurgie à main levée (7), son utilisation en pratique quotidienne a été ralentie en grande partie à cause du coût de fabrication élevé. Le développement récent dimprimantes 3D de bureau de haute précision (8,9) et la multiplicité des logiciels de planification implantaire ont permis le développement de la chirurgie guidée. Cependant, à chaque étape du flux numérique, des imprécisions peuvent se cumuler pouvant aboutir à des erreurs de positionnement ayant des conséquences potentiellement graves : proximité avec les racines adjacentes, perforation des racines, lésion nerveuse. La précision des guides chirurgicaux sté- réolithographiques dépend de nombreux paramètres : lempreinte, l’impression du guide, le matériau utilisé, la nature du support, lexpérience du praticien. Les empreintes optiques réalisées avec des scanners intra-oraux de plus en plus puissants présentent de nombreux avantages par rapport aux techniques conventionnelles en terme de rapidité, de précision et de reproductibilité. (10-14). Les guides peuvent être à appui osseux, muqueux, dentaire ou mixte. Une revue systématique de la littérature de Gallardo et coll. en 2017 (15) compare la précision des guides chirurgicaux en fonction du type de support. Cette revue conclut que les guides à appui osseux présentent le plus de déviation au niveau de langle, du point dentrée et de la localisation de lapex de l’implant par rapport aux guides à appuis dentaires. Les guides à appuis muqueux montrent moins de déviation par rapport aux guides à appuis osseux. Les auteurs nont pas trouvé de différence statistiquement significative entre les guides à appuis dentaires et muqueux. Selon L’étude de Cassetta publiée en 2017 (16), lexpérience du praticien influence la précision du positionnement des implants en chirurgie guidée. Un praticien novice en implantologie présente plus de déviation sur le positionnement des implants avec lutili- sation d’un guide chirurgical stéréolithographique quun praticien expérimentée. La chirurgie implantaire guidée reste un outil et nécessite une expérience chirurgicale. Le flux numérique en implantologie peut aujourdhui se réaliser de la prise d’empreintes d’étude à la fabrication de la restauration prothétique implantaire en passant par la conception et l’impression d’un guide chirurgi- cal. Ce flux est une aide précieuse en terme de communication avec le patient mais aussi avec le prothésiste, il permet daugmenter la reproductibilité des résultats et daboutir à une restauration prothétique esthétique et fonctionnelle.
10

Pecanha, Carolina, Terry Jansen, Jon Lind, and Tatiana Fontes. "Pipeline Project Technical Documents Control and Compliance." In 2016 11th International Pipeline Conference. American Society of Mechanical Engineers, 2016. http://dx.doi.org/10.1115/ipc2016-64556.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This paper presents an overview of Pipeline Project Technical Documents, along with Control Room Management and Compliance Issues, Challenges and Processes in the Oil & Gas Industry. It will be based on the work that the authors have developed between 2010 and 2015. With an overwhelming number of standards, norms, and best practices, operational and security requirements needs to be well implemented and documented. Any compliance issues have the potential to cause serious repercussions to an organization as an incident or an audit failure could result in significant financial loss. This review is especially critical to the industry as it highlights the advantages of taking a broad approach to obtain and maintain compliance in today’s Oil & Gas regulatory environment. The focus will be on pipeline monitoring regulations - Department of Transportation (DOT) - Pipeline and Hazardous Materials Safety Administration (PHMSA) and American Petroleum Institute (API) recommended practices: API 1164 (Supervisory Control and Data Acquisition System - SCADA Security), API 1165 (SCADA Displays), API 1167 (SCADA Alarm Management) and API 1168 (Control Room Management). Regarding Supervisory Control and Data Acquisition Systems (SCADA) security, this includes not only IT infrastructure such as computers and network related appliances, but also other equipment such as programmable logic controllers (PLCs) and Remote Terminal Units (RTUs) depending on the system architecture. The cyber-security threat has become a real issue related to critical infrastructure protection, and physical or human-risk issues. Understanding the systems vulnerabilities that could impact the availability of the control system and the facilities it controls is key. On the Control Room Management side, current PHMSA regulatory framework, a human factors plan is required to ensure control systems match human capabilities and limitations. Pipeline operators are since required to inform controllers of their roles and responsibilities, and carefully assess the implications on each of the following SCADA areas: alarm management, documentation and procedures, HMI displays, shift handover, fatigue management, change management and training. Therefore with the pipeline industry facing increasing regulatory scrutiny and ever-increasing cyber-threats, it’s more important than ever for companies to improve their plans, documentation, and processes. Companies around the globe are converging and prioritizing Security and Control, establishing long-term strategy to meet and sustain regulatory compliance to remain competitive, increase efficiency and productivity. The authors, working jointly with the client and industry leaders, have developed compliance methods and procedures to deal with these challenges. After applying these methods and procedures, the observed results were translated into smoother transitions to a centralized SCADA control center, which not only meet regulatory safety guidelines and PHMSA regulation, but also added value and efficiency to the control center operations.

Звіти організацій з теми "Plan de données programmable":

1

Houlbrook, Nicholas. Tank Farm Safety Programmable System Software Management Plan. Office of Scientific and Technical Information (OSTI), September 2018. http://dx.doi.org/10.2172/1475170.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Green, R. Individual software plan for the programmable logic controller. Office of Scientific and Technical Information (OSTI), July 1997. http://dx.doi.org/10.2172/2491.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Ancion, Zoé, Francis Andre, Sarah Cadorel, Romain Feret, Odile Hologne, Kenneth Maussang, Marine Moguen-Toursel, and Véronique Stoll. Plan de gestion de données – Recommandations à l’ANR. Ministère de l'enseignement supérieur et de la recherche, June 2019. http://dx.doi.org/10.52949/7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette note, le Comité pour la science ouverte émet 15 recommandations à l'Agence nationale de la recherche dans la mise en place d’un plan de gestion des données. Le comité attire l'attention sur l'adoption d'une démarche progressive qui favoriserait une adhésion des communautés et une meilleure adaptation à l’évolution des pratiques.
4

KOCH, M. R. Saltwell PIC Skid Programmable Logic Controller (PLC) Software Configuration Management Plan. Office of Scientific and Technical Information (OSTI), November 1999. http://dx.doi.org/10.2172/798656.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

WHITE, K. A. Saltwell Leak Detector Station Programmable Logic Controller (PLC) Software Configuration Management Plan (SCMP). Office of Scientific and Technical Information (OSTI), November 2000. http://dx.doi.org/10.2172/805460.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Kerfoot, H. Une perspective à long terme et un plan de développement pour un service canadien de données toponymiques numériques. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1991. http://dx.doi.org/10.4095/298397.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Gruson-Daniel, Célya, and Maya Anderson-González. Étude exploratoire sur la « recherche sur la recherche » : acteurs et approches. Ministère de l'enseignement supérieur et de la recherche, November 2021. http://dx.doi.org/10.52949/24.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
• Introduction Dans le cadre du deuxième Plan National de la Science Ouverte, le Comité pour la science ouverte a souhaité mener une étude pour la préfiguration d’un Lab de la science ouverte (LabSO) afin de mieux comprendre le périmètre de la recherche sur la recherche (research on research) dans un contexte international. • Objectifs de l’étude : L’étude répond ainsi à trois objectifs : 1. repérer des grands courants de recherche sur la recherche (RoR) dans le paysage plus général de la recherche universitaire en Europe et outre-atlantique, en reconnaître les principaux acteurs institutionnels et différencier les approches mobilisées par les uns et les autres ; 2. proposer une méthodologie d’analyse dans une démarche de science ouverte (méthodes mixtes et cartographie numérique) pour faciliter l’appropriation de son contenu ; 3. émettre des recommandations pour faciliter le positionnement du LabSO et s’inspirer d’initiatives existantes. • Méthodologie Une série de treize entretiens et une collecte de données d’une sélection thématique de sites web ont permis de dresser un paysage d’acteurs et d’approches impliqués dans des recherches sur la recherche. Ce dernier s’est nourri d’une démarche de cartographie numérique pour repérer et visualiser les liens existants entre différentes communautés, mouvements, réseaux et initiatives (financeurs, projets, centres de recherche, fournisseurs de données, éditeurs, etc.). • Résultats Le rapport présente différents courants de « recherche sur la recherche » issus des traditions théoriques et méthodologiques de la sociologie, de l’économie, des sciences politiques, de la philosophie, des sciences de l’information et des mesures (biblio/scientométrie). Des courants plus récents sont aussi décrits. Ils s’inscrivent dans un contexte de politiques publiques favorables à la science ouverte et ont émergé dans le champ des sciences sociales computationnelles, des Big Data ou encore des domaines biomédicaux. Si certaines de ces approches s’appuient sur des courants académiques (STS, sciences des mesures) établis depuis de nombreuses décennies, d’autres comme ceux de la « métascience » ou de la « science de la science », se sont structurées plus récemment avec une visée prescriptive et de changement fondé sur des preuves (evidence-based) se basant sur un engagement normatif pour une science plus ouverte, inclusive et diverse. Bien loin d’un paysage statique, l’étude fait ressortir des recherches en mouvement, des débats tout autant que des mises en garde afin que certains courants « ne réinventent pas la roue » en faisant fit d’une longue tradition académique de l’étude des sciences et de la production scientifiques. De nouvelles alliances entre centres de recherche et laboratoires, institutions subventionnaires, décideurs politiques et fournisseurs de données ont été repérées. Elles participent à une dynamique actuelle d’équipement des politiques publiques par des outils d’évaluation et des protocoles de recherche pour guider les actions menées, on parle d’évidence-based policies. Un des exemples les plus récents étant laa seconde feuille de route du RoRI1 poussant notamment à la formation d’un réseau international d’instituts de recherche sur la recherche, fondé sur le partage et la mutualisation de données, de méthodes et d’outils. Outre la présentation de ces différents acteurs et courants, le rapport pointe le rôle joué par les infrastructures et les fournisseurs de données scientifiques (publications, données, métadonnées, citations, etc.) dans la structuration de ce paysage et les équilibres à trouver. • Recommandations 1. Accompagner la construction d’indicateurs et de métriques par le biais d’un regard critique et de discussions collectives pour mesurer leurs impacts sur les comportements des professionnels de la recherche (mésusages, gaming). 2. Porter attention aux étapes de diffusion des résultats scientifiques issus des « recherches sur la recherche » pour les adapter aux différents publics ciblés (chercheurs, responsables des politiques publiques de recherche, journalistes, etc.). 3. Articuler les travaux de « recherche sur la recherche » avec une démarche de science ouverte en questionnant notamment les choix faits concernant les fournisseurs de données, les infrastructures et outils d’évaluation, de découvrabilité et d’analyse de la production scientifique (gouvernance, utilisation des données, etc.). 4. Soutenir les approches thématiques et transversales plutôt que disciplinaire de manière collaborative entre les différents membres du Lab de la science ouverte et aider le dialogue entre les différentes approches et mouvements (STS, research on research, science of science, scientométrie, etc.)
8

Dudoit, Alain. L’urgence du premier lien : la chaîne d’approvisionnement du Canada au point de rupture, un enjeu de sécurité nationale. CIRANO, June 2023. http://dx.doi.org/10.54932/zjzp6639.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La création d’une chaîne d'approvisionnement intelligente est désormais une priorité de sécurité nationale urgente qui ne peut être réalisée sans la mobilisation conjointe différentes parties prenantes au Canada. Elle n’est cependant pas une finalité en soi : la réalisation d’un marché intérieur unique, compétitif, durable et axé sur les consommateurs devrait être le résultat ultime du chantier national nécessaire à la mise en œuvre collaborative des recommandations de trois rapports complémentaires de politiques publiques publiés en 2022 sur l’état de la chaine d’approvisionnement au Canada. Le défi de la chaîne d'approvisionnement est vaste, et il ne fera que se compliquer au fil du temps. Les gouvernements au Canada doivent agir ensemble dès maintenant, en conjonction avec les efforts de collaboration avec nos alliés et partenaires notamment les États-Unis et l’Union Européenne pour assurer la résilience les chaînes d'approvisionnement face à l’accélération des bouleversements, conflits géopolitiques, catastrophes naturelles actuels et anticipés. La position géostratégique du Québec représente un atout majeur et l’investit d’un rôle et d’une responsabilité critiques dans la mise en œuvre non seulement du Rapport final du groupe de travail national sur la chaine d’approvisionnement (« ACT »), mais aussi des recommandations contenues dans le rapport publié par le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et celles contenues dans le rapport du Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités publié à Ottawa en novembre 2022 , « Améliorer l’efficacité et la résilience des chaînes d’approvisionnement du Canada ». La démarche mobilisatrice vers un espace commun des données pour la chaine d’approvisionnement du Canada s’inspire de la vision à terme du corridor économique intelligent d’Avantage Saint-Laurent et repose sur l'expérience acquise grâce à différentes initiatives et programmes mis en œuvre au Canada, aux États-Unis et en Europe, et les intègre tel qu’approprié. Sa mise en œuvre dans une première étape dans le corridor commercial du Saint-Laurent Grands Lacs facilitera l’accès et le partage par la suite des données de l’ensemble de la chaine d’approvisionnement au Canada de manière fiable et sécurisée. Le développement conjoint accéléré d’un espace commun de données changera la donne non seulement dans la résolution des défis critiques de la chaine d’approvisionnement mais aussi dans l’impulsion qu’il générera dans la poursuite de priorités fondamentales au Canada dont celle de la transition énergétique. Ce rapport Bourgogne propose une synthèse en quatre volets : 1. Un survol d’un arrière-plan caractérisé par de nombreuses consultations, annonces de stratégies, mesures et des résultats mitigés. 2. Une analyse croisée des recommandations de trois rapports importants et complémentaires de politiques publiques au niveau fédéral ainsi que de la stratégie québécoise, l’Avantage Saint-Laurent. 3. Une analyse des enjeux fondamentaux de capacité de mobilisation, d’exécution et de sous-utilisation des données. 4. Quelques pistes de solutions opérationnelles pour passer au mode « Action -Collaboration et Transformation (ACT)
9

Saulais, Laure, and Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad: étude de préfaisabilité. CIRANO, August 2022. http://dx.doi.org/10.54932/ziga3839.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
10

Taherizadeh, Amir, and Cathrine Beaudry. Vers une meilleure compréhension de la transformation numérique optimisée par l’IA et de ses implications pour les PME manufacturières au Canada - Une recherche qualitative exploratoire. CIRANO, June 2021. http://dx.doi.org/10.54932/jdxb2231.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce rapport présente les principaux résultats d’une étude qualitative exploratoire visant à examiner l’impact de l’intelligence artificielle (IA), en tant que technologie à usage général (TUG) sur la productivité et l’emploi à l’échelle de l’entreprise. À la suite de l’analyse de sources de données primaires et secondaires (comprenant 27 entretiens, rapports et discussions de groupe), nous établissons d’abord une échelle de maturité de l’adoption de l’IA et un classement des petites et moyennes entreprises (PME) qui intègrent l’IA dans leurs processus de travail en quatre archétypes : l’Aspirant, le Fonceur, le Leader et le Visionnaire. Nous définissons chaque archétype de façon à mettre en évidence les changements particuliers à opérer pour qu’une entreprise puisse passer à l’étape suivante de l’adoption de l’IA. Deuxièmement, nous définissons et examinons sept obstacles à l’adoption généralisée de l’IA par les PME manufacturières. Troisièmement, à l’aide de trois études de cas, nous explorons trois projets d’IA menés par des entreprises québécoises axées sur l’IA afin de montrer, d’une part, l’apport de l’intégration de l’apprentissage automatique (AA) aux produits et aux processus de travail sur le plan de la productivité des entreprises, et d’autre part son effet sur leurs effectifs. Dans l’ensemble, les résultats de notre étude suggèrent que la réussite de l’intégration de l’IA nécessite une transformation numérique au niveau de l’entreprise, que nous présentons comme un continuum. Dans les premières étapes, où l’adoption de l’IA se fait autour de projets (en particulier pour les entreprises des catégories Aspirant et Fonceur), les effectifs des entreprises ont tendance à augmenter parallèlement aux gains de productivité en même temps que le perfectionnement indispensable des compétences de la main-d’œuvre existante. En outre, lorsque l’IA est déployée à l’échelle de l’entreprise (chez les Leaders et les Visionnaires) et que cette dernière rehausse le niveau de ses activités d’innovation, on enregistre plutôt des pertes d’emploi parallèlement aux gains de productivité. Par la suite, nous introduisons des indicateurs indirects de l’omniprésence de l’IA, car nous estimons qu’il s’agit de mesures plus réalistes pour évaluer le taux d’adoption de l’IA par les PME en phase fluide. Enfin, nous proposons quatre recommandations qui ont des implications pour les chercheurs, les praticiens et les responsables politiques.

До бібліографії