Academic literature on the topic 'Réduction du stockage des données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Réduction du stockage des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Réduction du stockage des données"

1

Chouaf, Seloua, and Youcef Smara. "Méthode de sélection des bandes à base de l'Analyse en Composantes Indépendantes appliquée aux images hyperspectrales de télédétection." Revue Française de Photogrammétrie et de Télédétection, no. 204 (April 8, 2014): 57–62. http://dx.doi.org/10.52638/rfpt.2013.22.

Full text
Abstract:
Les données hyperspectrales se caractérisent par une importante dimension spectrale qui atteint quelques centaines de bandes étroites et contigües. Le volume occupé par ces images est non négligeable et fait que des taches usuelles telles que : le stockage, le traitement et l'analyse soient alourdies. Pour pallier ce problème et garantir une meilleure exploitation de ces données, nous proposons par le présent article, une méthode de réduction qui vise à créer un espace de représentation de dimension moindre, informatif et libéré des redondances tout en préservant la signification physique des bandes.Vu le pouvoir de séparation de l'analyse en composantes indépendantes «ACI», reconnu dans le cas des données multidimensionnelles à grand volume, nous l'exploitons pour extraire un ensemble de composantes statistiquement indépendantes obtenues par la minimisation de la gaussiannité. Différents degrés d'importance sont affectés aux bandes spectrales, permettant leur classement. Finalement, nous appliquons une sélection à l'ensemble des bandes classées et nous retenons les plus informatives afin de construire l'espace de représentation spectral réduit. Pour nos tests, nous avons appliqué l'ACI en considérant d'une part, une orthogonalisation à déflation (poursuite de projections, composantes ordonnées) et d'autre part, une orthogonalisation symétrique (estimation globale, composantes désordonnées). On suggère pour le cas symétrique, d'ajuster les données originales à un bruit additif afin d'obtenir des composantes indépendantes ordonnées (suivant le rapport signal à bruit). Les résultats recueillis montrent que la méthode proposée assure la réduction du cube hyperspectral avec d'acceptables rapports dimension-représentativité.
APA, Harvard, Vancouver, ISO, and other styles
2

Rey, J. F. "Stockage des données en endoscopie digestive." Acta Endoscopica 20, S2 (March 1990): 381–83. http://dx.doi.org/10.1007/bf02970790.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

J.-L.P. "Le stockage et la communication des données." Revue Forestière Française, S (1993): 41. http://dx.doi.org/10.4267/2042/26498.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

VIGNAL, A. "Bases de données en biologie." INRAE Productions Animales 13, HS (December 22, 2000): 187–89. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3836.

Full text
Abstract:
Les bases de données en biologie doivent permettre le stockage d’une quantité croissante d’informations dont la nature est hétérogène. Des entités parfois très différentes sont à représenter, ainsi que leurs relations. De plus, les techniques variées utilisées pour générer les données doivent être prises en compte. De ce fait, il existe un foisonnement de bases de données spécialisées, dont nous décrivons ici les principales, ainsi que leurs interrelations.
APA, Harvard, Vancouver, ISO, and other styles
5

Hehn, Michel, Gregory Malinowski, and Stéphane Mangin. "Retournement d’aimantation dans un dispositif « Spintronique » par impulsion d’électrons unique ultra-courte." Photoniques, no. 108 (May 2021): 36–39. http://dx.doi.org/10.1051/photon/202110836.

Full text
Abstract:
Portée par l’internet des objets et l’intelligence artificielle, la quantité de données générées et stockées augmente de manière exponentielle. A l’horizon 2030, 20 % de l’électricité mondiale sera utilisée pour le stockage et la gestion des données. Une très large majorité des données est stockée sur des surfaces magnétiques. Nous démontrons que nous pouvons retourner l’aimantation d’une couche ferromagnétique, donc écrire de l’information, grâce à un seul pulse laser femto-seconde.
APA, Harvard, Vancouver, ISO, and other styles
6

Metay, A., B. Mary, D. Arrouays, J. Labreuche, M. Martin, B. Nicolardot, and J. C. Germon. "Effets des techniques culturales sans labour sur le stockage de carbone dans le sol en contexte climatique tempéré." Canadian Journal of Soil Science 89, no. 5 (November 1, 2009): 623–34. http://dx.doi.org/10.4141/cjss07108.

Full text
Abstract:
En régions de climat tempéré, les terres cultivées ont un potentiel de stockage de carbone que l’on peut tenter d’utiliser pour réduire d’autant les émissions de CO2 atmosphérique par des pratiques culturales adaptées et notamment par les techniques culturales sans labour (TCSL). Cette capacité de stockage de carbone dans le sol a été évaluée sur l’essai de longue durée de Boigneville (Bassin de Paris, France) et a été comparée aux données de la littérature internationale. Le suivi du stock de carbone du sol sous une rotation maïs-blé indique une tendance à un stockage modéré tant en système labouré (0,10 t C ha-1 an-1 sur 28 ans) qu’en TCSL (respectivement 0,21 t et 0,19 t C ha-1 an-1 pour le travail superficiel et le semis direct sur cette même période). Avec une absence de différence significative entre le semis direct et le travail superficiel, l’effet spécifique moyen des TCSL évalué à 0,10 t C ha-1 an-1 sur 28 ans apparait sensiblement plus faible que celui mesuré sur les 20 premières années et évalué à 0,20 t C ha-1 an-1. Ces valeurs, inférieures à d’autres valeurs largement diffusées par ailleurs, et cette variation décroissante de la capacité de stockage avec la durée de TCSL sont cohérentes avec la tendance moyenne observée à partir d’un large échantillonnage de données de la littérature internationale. L’évolution de ce stockage de carbone est discutée en lien avec les indications sur l’évolution du stock de carbone des sols de cette même région, les indicateurs de stockage potentiel, et les implications liées à l’évolution du climat.Mots clés: Techniques de culture sans labour, travail superficiel, semis direct, stockage de carbone, séquestration, mitigation, gaz à effet de serre, essai de longue durée, climat tempéré
APA, Harvard, Vancouver, ISO, and other styles
7

Gaultier, M. "Une base de données en anthropologie adaptée pour l'archéologie préventive. Usages, enjeux et limites au service de l'archéologie du département d'Indre-et-Loire (Sadil)." Bulletins et Mémoires de la Société d'Anthropologie de Paris 29, no. 3-4 (March 17, 2017): 159–64. http://dx.doi.org/10.1007/s13219-017-0179-8.

Full text
Abstract:
Les pratiques professionnelles en archéologie préventive liées aux contraintes de temps imposées à la réalisation des recherches sur le terrain ou lors de la phase d'étude, ainsi que la normalisation toujours plus aboutie des rapports d'opérations, favorisent l'émergence et le développement d'outils informatiques aptes à seconder archéologues et anthropologues au quotidien. Pour la gestion de séries importantes de données issues de l'étude de nécropoles ou cimetières, la création et le développement d'une base de données s'avèrent ainsi indispensables tant pour le stockage des données brutes que pour leur manipulation : tri, comparaison, analyse. L'outil informatique permet également d'automatiser certaines tâches et de normaliser la présentation des données. Cette note présente l'expérience du service de l'archéologie du département d'Indre-et-Loire en la matière.
APA, Harvard, Vancouver, ISO, and other styles
8

Jouini, Khaled, and Geneviève Jomier. "Modèles de stockage orientés interrogation pour bases de données temporelles." Ingénierie des systèmes d'information 15, no. 1 (February 28, 2010): 61–85. http://dx.doi.org/10.3166/isi.15.1.61-85.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Stone, MR, GE Faulkner, and RN Buliung. "Quel est le niveau d'activité physique des enfants de Toronto? Analyse de données d'accélérométrie et comparaison avec l'Enquête canadienne sur les mesures de la santé." Maladies chroniques et blessures au Canada 33, no. 2 (March 2013): 70–79. http://dx.doi.org/10.24095/hpcdp.33.2.02f.

Full text
Abstract:
Introduction L'Enquête canadienne sur les mesures de la santé (ECMS) est l'enquête directe sur les mesures de la santé la plus complète jamais réalisée au Canada. Ses résultats indiquent que la majorité des enfants et des jeunes (93 %) n'ont pas un niveau d'activité physique conforme aux recommandations actuelles en la matière pour une bonne santé. Comparer les données de l'ECMS à celles d'un autre échantillon de jeunes Canadiens, ce qui n'a pas encore était fait, pourrait confirmer les résultats de l'ECMS et alimenter la discussion sur les protocoles de réduction des données d'accélérométrie. Méthodologie En 2010 et 2011, des données d'accélérométrie valides ont été recueillies auprès de 856 enfants vivant dans la région du Grand Toronto (RGT). Dans la mesure du possible, nous avons harmonisé la présentation et l'analyse de ces données avec celles de l'ECMS de manière à pouvoir comparer les niveaux d'activité physique. Résultats Globalement, les tendances étaient similaires, avec quelques écarts dus probablement aux différences de contexte, d'échantillonnage et de protocoles de collecte et de réduction des données (choix du modèle d'accéléromètre, temps de port de ce dernier, seuils d'intensité de l'activité et intervalles de mesure). Conclusion Les tendances similaires observées confirment le constat selon lequel l'inactivité physique est un problème structurel à l'échelle du Canada.
APA, Harvard, Vancouver, ISO, and other styles
10

Mbaye, Moussa, Elhadji Faye, Mamoudou Abdoul Toure, and Awa Ba. "Identification des caractéristiques techniques des systèmes de culture et de stockage d’oignon (<i>Allium cepa</i> L.) de la vallée du fleuve Sénégal." International Journal of Biological and Chemical Sciences 17, no. 5 (October 29, 2023): 1832–48. http://dx.doi.org/10.4314/ijbcs.v17i5.5.

Full text
Abstract:
La performance des systèmes de culture et de stockage influe fortement sur la qualité de la récolte. L’objectif de cette étude était de produire des données actualisées sur l’état des systèmes de culture d’oignon et son stockage dans la vallée du fleuve Sénégal. La collecte des données a été faite à travers des enquêtes qualitatives auprès de 400 producteurs et de 22 acteurs techniques de la filière. Un questionnaire semi-structuré et un guide d’entretien ont permis de collecter les données. La moyenne et la fréquence ont été utilisées pour les analyses statistiques sur Sphinx v.5. Les résultats ont montré que les techniques de culture demeurent manuelles avec un système d’irrigation gravitaire. Les engrais avec moins de 1 t.ha-1 et les pesticides chimiques à raison de 8 l.ha-1 étaient utilisés, respectivement, dans la fumure des sols et la gestion des ravageurs. En moyenne, les emblavures étaient de 0,99 ha par exploitant et par saison avec un rendement de 14,45 t.ha-1. Le stockage s’était fait dans des hangars qui ne permettaient pas de conserver l’oignon à plus de 2 mois. Les effets de la matière organique sur la qualité et la durée de stockage de l’oignon pourraient être explorés pour l’amélioration de la filière. Performance of growing and storage system impacts highly on harvest quality. The objective of this study was to produce updated data about status of onion growing system and its storage in Senegal river valley. Data collection has been done through qualitative investigation next to 400 producers and 22 technical actors of the path. A semi structured survey and an interview guide allowed to collect data. Mean and frequency have been used for statistical analysis on Sphinx v.5. Results showed that growing technics stay essentially manual with gravitary irrigation system. Fertilizers with less than 1 t.ha-1 and chemical pesticides at 8 l.ha-1 were used, respectively, for soil fertilization and pests management. In mean, cropped lands are 0,99 ha per user and per season with a yield of 14,45 t.ha-1. Storage was performed under sheds which did not allow to store onion over 2 months. Effects of organic matter on quality and storage duration of onion could be explored for the path improvement.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Réduction du stockage des données"

1

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Full text
Abstract:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
APA, Harvard, Vancouver, ISO, and other styles
2

Bouabache, Fatiha. "Stockage fiable des données dans les grilles, application au stockage des images de checkpoint." Paris 11, 2010. http://www.theses.fr/2010PA112329.

Full text
Abstract:
Les techniques de tolérance aux fautes basées sur les points de reprise s'appuient principalement sur la fiabilité du stockage des images de checkpoint. Dans le cas où ces images ne seraient pas disponibles, le redémarrage du système échoue. L'objectif de cette thèse est de proposer des solutions qui garantissent le stockage fiable et efficace des données en général et des images de checkpoint en particulier. Par fiable, nous voulons dire quelque soit le scénario de pannes qui se produit, du moment qu'il respecte les hypothèses faites par les algorithmes, les images restent accessibles. Et nous entendons par efficace, minimiser le temps nécessaire au stockage des images et donc le temps de transfert. Ceci permettra de réduire le temps d'exécution global des vagues de checkpoint. Pour garantir ces deux points, nous proposons : 1. Un protocole de checkpoint coordonné qui exploite la localisation des images de checkpoint afin de réduire au maximum les communications inter-cluster ; 2. Un service de stockage distribué et structuré en une architecture à trois couches : a) La couche réplication : afin de garantir la fiabilité des données stockées, nous proposons de répliquer les différentes images sur un certain nombre de serveur. Dans cette direction, nous avons proposé deux techniques de réplication hiérarchique adaptées à l'architecture considérée. B) La couche planification : à ce niveau, nous avons travaillé sur l'efficacité du stockage en réduisant le temps de transfert des données sur le réseau. Pour cela, nous proposons d'ordonnancer les transferts au niveau des sources. C) L'outil d'ordonnancement, implémentant le plan de transfert tel que calculé par la couche supérieure
Rollback/recovery solutions rely on checkpoint storage reliability (after a failure, if the checkpoint images are not available, the rollback operation fails). The goal of this thesis is to propose a reliable and an efficient checkpoint storage service. By reliable, we mean that whatever the scenario of failures is, as long as it respects the assumptions made by the algorithms, the checkpoint images are still available. And we mean by efficient, minimizing the time required to transfer and to store the checkpoint images. This will minimize the global execution time of the checkpoint waves. To ensure those two points (reliability and efficiency), we propose: 1. A new coordinated checkpoint protocol which tolerates checkpoint server failures and clusters failures, and ensures a checkpoint storage reliability in a grid environment; 2. A distributed storage service structured on three layers architecture: a) The replication layer: to ensure the checkpoint storage reliability, we propose to replicate the images over the network. Ln this direction, we propose two hierarchical replication strategies adapted to the considered architecture and that exploit the locality of checkpoint images in order to minimize inter-cluster communication. B) The scheduling layer: at this level we work on the storage efficiency by reducing the data transfer time. We propose an algorithm based on the uniform random sampling of possible schedules. C) The scheduling engine: at this layer, we develop a tool that implements the scheduling plan calculated in the scheduling layer
APA, Harvard, Vancouver, ISO, and other styles
3

Lopez, Olivier. "Réduction de dimension en présence de données censurées." Phd thesis, Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00195261.

Full text
Abstract:
Nous considérons des modèles de régression où la variable expliquée est censurée à droite aléatoirement. Nous proposons de nouveaux estimateurs de la fonction de régression dans des modèles paramétriques, et nous proposons une procédure de test non paramétrique d'adéquation à ces modèles. Nous prolongeons ces méthodes à l'étude du modèle semi-paramétrique "single-index", généralisant ainsi des techniques de réduction de dimension utilisées en l'absence de censure. Nous nous penchons tout d'abord sur le cas d'un modèle où la variable de censure est indépendante de la variable expliquée ainsi que des variables explicatives. Nous travaillons dans un second temps dans un cadre moins restrictif où la variable expliquée et la censure sont indépendantes conditionnellement aux variables explicatives. Une difficulté spécifique à ce dernier type de modèle tient en l'impossibilité des techniques actuelles à estimer une espérance conditionnelle (de façon paramétrique ou non) en présence de plus d'une
variable explicative. Nous développons une nouvelle approche de réduction de la dimension afin de résoudre ce problème.
APA, Harvard, Vancouver, ISO, and other styles
4

Devigne, Julien. "Protocoles de re-chiffrement pour le stockage de données." Caen, 2013. http://www.theses.fr/2013CAEN2032.

Full text
Abstract:
La protection de la vie privée est un des enjeux majeurs de la société moderne dans laquelle Internet est omnipotent. Dans cette thèse, nous étudions des techniques permettant de réaliser un stockage dématérialisé qui préserve la confidentialité des informations. Nous nous intéressons ainsi à protéger les données stockées tout en permettant à leur propriétaire de les partager avec les personnes de son choix. Le serveur de re-chiffrement, une des primitives proposées par la cryptographie, est la solution que nous décidons de retenir. Tout d'abord, nous donnons une définition d'un système de serveur de re-chiffrement qui regroupe tous les modèles classiques existants. Nous décrivons également les caractéristiques habituelles que peut présenter cette primitive ainsi que son modèle de sécurité. Ensuite, nous nous concentrons plus particulièrement sur certains schémas spécifiques afin d'en améliorer la sécurité. Nous présentons pour cela une méthode qui transforme un schéma sûr contre une attaque à chiffré choisi rejouable en un schéma sûr contre une attaque à chiffré choisi. Nous étudions aussi les schémas fondés sur le chiffrement Hash ElGamal et proposons d'y apporter des modifications afin qu'ils atteignent une meilleure sécurité. Pour terminer et dans le but d'obtenir le stockage le plus fonctionnel possible, nous proposons deux nouveaux modèles. Le premier, que nous appelons serveur de re-chiffrement combiné, permet d'obtenir une gestion dynamique des droits d'accès. Le second, que nous appelons serveur de re-chiffrement sélectif, permet d'obtenir une gestion des droits d'accès plus fine que celle offerte par le serveur de re-chiffrement conditionnel
Privacy is one of the main issues of our modern day society in which the Internet is omnipotent. In this thesis, we study some technics allowing to realise a privacy-preserving cloud storage. In this way, we focus to protect stored data while allowing their owner to share them with people of his choice. Proxy re-encryption, one of the primitives offered by cryptography, is the solution we decide to consider. First, we give a definition of a proxy re-encryption system unifying all existing conventional models. We also describe usual characteristics that this primitive may present and we provide its security model. Then, we focus more precisely on some specific schemes in order to improve their security. In this meaning, we expose a method which turns a scheme secure against a replayable chosen ciphertext attack into a secure scheme against a chosen ciphertext attack. We study schemes based on the Hash ElGamal encryption too and propose some modifications in order to reach a better security. Finally and in order to obtain the most functional cloud storage, we propose two new models. The first one, that we call combined proxy re-encryption, offers dynamic right access. The second one, that we call selective proxy re-encryption, enables a more fine-grained access right control than the one offered by the conditional proxy re-encryption
APA, Harvard, Vancouver, ISO, and other styles
5

Hadjar, Abdelkader. "Catalyseurs électrochimiques pour le stockage et la réduction des oxydes d'azote (NOx)." Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10111.

Full text
Abstract:
L’objectif de ce travail était de démontrer la possibilité de coupler sur un même catalyseur, la fonction de stockage et réduction des NOx (sur le baryum) avec un effet électrochimique reposant sur un système micropile. Ce système micropile est composé de nanoparticules catalytiques (Pt et Rh) déposés sur conducteur ionique par les ions O2- (YSZ) en contact avec un support conducteur électronique (SiC dopé) de façon à pouvoir générer, sous mélanges réactionnels, une force électromotrice capable de réduire électrochimiquement une partie des NOx sur le Pt et d’oxyder le CO, les hydrocarbures imbrûlés et H2 sur le Rh. L’effet micropile a été observé sur un catalyseur Pt/Ba (matériau de stockage)/YSZ/Rh enduit dans les canaux d’un filtre à particule en carbure de silicium dopé, en condition essence pauvre à 400°C et en condition Diesel à plus basse température (300°C). Une augmentation de la conversion des NOx d’environ 10% a été observé sur les catalyseurs micropile. L’effet électrochimique a été détecté par une surproduction de CO2, en milieu riche (très peu ou pas de O2) provenant de la réaction d’oxydation électrochimique du CO (produit par vaporeformage) en réagissant avec les ions O2- provenant de YSZ. De plus, des tests catalytiques ont montré que YSZ peut être utilisée comme matériau de stockage des NOx. En effet, un traitement réducteur préalable augmente fortement sa capacité de stockage des NOx
The main objective of this study was to demonstrate the coupling between NOx storage/reduction process on barium, with an electrochemical reduction of NOx (micro fuel cell effect) on the same catalyst. The micro fuel cell effect is ensured by a an electromotive force (potential) which is created between catalytic nanoparticules (Pt and Rh) in contact with an ionic conductor (YSZ) and an electronic conductor (doped SiC). The micro fuel cell effect was observed, during the regeneration phase of the catalysts (rich period), on a Pt/Ba/doped α-SiC-YSZ/Rh monolithic system under lean-burn gasoline conditions at 400°C with an enhancement of about 10 % of the NOx conversion over a complete cycle lean/rich. This electrochemical effect was characterized by the electrochemical oxidation of CO (produced by steam reforming) into CO2 by using O2- ions coming from YSZ. Under Diesel conditions, the micro fuel cell system was found to work at low temperature especially at 300°C. In the second part of the work, a new generation of NOx Storage and reduction catalyst was developed consisting only of noble metals (Pt and/or Rh) deposited on YSZ support (Ba free catalyst). The catalytic measurements revealed that YSZ can be used as a NOx storage material in lean burn conditions (Gasoline and Diesel) especially when it was previously reduced under hydrogen. The storage mechanism would take place on the oxygen vacancies created by the removal of O-2 ions from the YSZ structure
APA, Harvard, Vancouver, ISO, and other styles
6

Berland, Sébastien. "Préparation, caractérisation et activité de matériaux pour la réduction des NOx par l'ammoniac ; Association au catalyseur de stockage-réduction." Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/5113f776-4c92-453d-8e7b-4655c49cce2f.

Full text
Abstract:
Ce travail porte sur la dépollution des gaz d'échappement automobile et plus particulièrement sur la combinaison de deux procédés de réduction des NOx : les systèmes NSR (NOx Storage-Reduction) et SCR (Selective Catalytic Reduction). En condition de fonctionnement, les catalyseurs NSR sont susceptibles d'émettre de l'ammoniac, qui est aussi un bon réducteur des NOx. L'ajout d'un matériau acide et actif en SCR-NH3 sur un second lit catalytique en aval, permet d'utiliser cet ammoniac pour augmenter la réduction globale des NOx. Le catalyseur NSR choisi est du type Pt-Ba/Al qui, lors du fonctionnement du système (alternance de phases oxydantes de stockage des NOx et pulses courts réducteurs), conduit à une sélectivité en ammoniac élevée lorsque H2 est utilisé comme réducteur. Pour le second lit catalytique, trois types de matériau ont été étudiés : matériaux industriels, WO3/Ce-Zr de composition Ce-Zr variable, et des matériaux synthétisés au laboratoire (voie sol-gel) : à partir d’une base alumine, les incorporations successives de Ce, Ti, et Si ont permis de formuler des matériaux actifs, améliorés par ajout de tungstène. Les matériaux ont été caractérisés par différentes techniques : DRX, BET, mesures d’acidité (stockage NH3, adsorption de pyridine), de réductibilité (RTP-H2, CSO), test de réactivité (NH3+NOx, NH3 + O2),. . . L'association des deux procédés (NSR + SCR) a montré que sur les matériaux de SCR-NH3, les NOx sont réduits selon deux réactions : la "fast SCR-NH3" (à 200, 300 et 400°C), et "standard SCR-NH3" (à 200°C). De plus, une partie de l'ammoniac peut aussi réagir avec O2 pour donner N2 (300-400°C) et le stockage de NH3 à 400°C reste insuffisant
This work deals with clean exhaust motor and more particularly on the combination of two processes for NOx reduction systems: NSR (NOx Storage-Reduction) and SCR (Selective Catalytic Reduction). In operating conditions, the NSR catalysts are likely to emit ammonia, which is also a good reducer of NOx. The addition of an acidic and active SCR-NH3 material on a second catalytic bed downstream, can use this ammonia to increase the overall reduction of NOx. The chosen NSR catalyst is type of Pt-Ba/Al which, in the functioning of the system (alternating oxidizing phases of NOx storage and short pulses of reducers) led to high selectivity in ammonia when H2 is used as a reducing agent. For the second catalytic bed, three types of material have been studied: industrial materials, WO3/Ce-Zr of Ce-Zr variable composition and materials synthesized in the laboratory (sol-gel route): from an alumina base, successive incorporations of Ce, Ti, and Si have been formulated active materials, improved by addition of tungsten. The materials have been characterized by different techniques: XRD, BET, measures of acidity (NH3, pyridine adsorption storage), of reducibility (RTP-H2, OSC), test of reactivity (NH3+ NOx, NH3 + O2),. . . The association of two processes (NSR + SCR) showed that on materials of SCR-NH3, NOx are reduced according to two reactions: the "fast SCR-NH3"(200, 300 and 400°C), and "standard SCR-NH3"(at 200°C). Furthermore, a part of ammonia may also react with O2 to give N2 (300-400°C) and the storage of NH3 at 400°C remains insufficient
APA, Harvard, Vancouver, ISO, and other styles
7

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Full text
Abstract:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
APA, Harvard, Vancouver, ISO, and other styles
8

Jule, Alan. "Etude des codes en graphes pour le stockage de données." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0739.

Full text
Abstract:
Depuis deux décennies, la révolution technologique est avant tout numérique entrainant une forte croissance de la quantité de données à stocker. Le rythme de cette croissance est trop importante pour les solutions de stockage matérielles, provoquant une augmentation du coût de l'octet. Il est donc nécessaire d'apporter une amélioration des solutions de stockage ce qui passera par une augmentation de la taille des réseaux et par la diminution des copies de sauvegarde dans les centres de stockage de données. L'objet de cette thèse est d'étudier l'utilisation des codes en graphe dans les réseaux de stockage de donnée. Nous proposons un nouvel algorithme combinant construction de codes en graphe et allocation des noeuds de ce code sur le réseau. Cet algorithme permet d'atteindre les hautes performances des codes MDS en termes de rapport entre le nombre de disques de parité et le nombre de défaillances simultanées pouvant être corrigées sans pertes (noté R). Il bénéficie également des propriétés de faible complexité des codes en graphe pour l'encodage et la reconstruction des données. De plus, nous présentons une étude des codes LDPC Spatiallement-Couplés permettant d'anticiper le comportement de leur décodage pour les applications de stockage de données.Il est généralement nécessaire de faire des compromis entre différents paramètres lors du choix du code correcteur d'effacement. Afin que ce choix se fasse avec un maximum de connaissances, nous avons réalisé deux études théoriques comparatives pour compléter l'état de l'art. La première étude s'intéresse à la complexité de la mise à jour des données dans un réseau dynamique établi et déterminons si les codes linéaires utilisés ont une complexité de mise à jour optimale. Dans notre seconde étude, nous nous sommes intéressés à l'impact sur la charge du réseau de la modification des paramètres du code correcteur utilisé. Cette opération peut être réalisée lors d'un changement du statut du fichier (passage d'un caractère hot à cold par exemple) ou lors de la modification de la taille du réseau. L'ensemble de ces études, associé au nouvel algorithme de construction et d'allocation des codes en graphe, pourrait mener à la construction de réseaux de stockage dynamiques, flexibles avec des algorithmes d'encodage et de décodage peu complexes
For two decades, the numerical revolution has been amplified. The spread of digital solutions associated with the improvement of the quality of these products tends to create a growth of the amount of data stored. The cost per Byte reveals that the evolution of hardware storage solutions cannot follow this expansion. Therefore, data storage solutions need deep improvement. This is feasible by increasing the storage network size and by reducing data duplication in the data center. In this thesis, we introduce a new algorithm that combines sparse graph code construction and node allocation. This algorithm may achieve the highest performance of MDS codes in terms of the ratio R between the number of parity disks and the number of failures that can be simultaneously reconstructed. In addition, encoding and decoding with sparse graph codes helps lower the complexity. By this algorithm, we allow to generalize coding in the data center, in order to reduce the amount of copies of original data. We also study Spatially-Coupled LDPC (SC-LDPC) codes which are known to have optimal asymptotic performance over the binary erasure channel, to anticipate the behavior of these codes decoding for distributed storage applications. It is usually necessary to compromise between different parameters for a distributed storage system. To complete the state of the art, we include two theoretical studies. The first study deals with the computation complexity of data update and we determine whether linear code used for data storage are update efficient or not. In the second study, we examine the impact on the network load when the code parameters are changed. This can be done when the file status changes (from a hot status to a cold status for example) or when the size of the network is modified by adding disks. All these studies, combined with the new algorithm for sparse graph codes, could lead to the construction of new flexible and dynamical networks with low encoding and decoding complexities
APA, Harvard, Vancouver, ISO, and other styles
9

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Full text
Abstract:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED
Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
APA, Harvard, Vancouver, ISO, and other styles
10

Kwémou, Djoukoué Marius. "Réduction de dimension en régression logistique, application aux données actu-palu." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0030/document.

Full text
Abstract:
Cette thèse est consacrée à la sélection de variables ou de modèles en régression logistique. Elle peut-être divisée en deux parties, une partie appliquée et une partie méthodologique. La partie appliquée porte sur l'analyse des données d'une grande enquête socio - épidémiologique dénommée actu-palu. Ces grandes enquêtes socio - épidémiologiques impliquent généralement un nombre considérable de variables explicatives. Le contexte est par nature dit de grande dimension. En raison du fléau de la dimension, le modèle de régression logistique n'est pas directement applicable. Nous procédons en deux étapes, une première étape de réduction du nombre de variables par les méthodes Lasso, Group Lasso et les forêts aléatoires. La deuxième étape consiste à appliquer le modèle logistique au sous-ensemble de variables sélectionné à la première étape. Ces méthodes ont permis de sélectionner les variables pertinentes pour l'identification des foyers à risque d'avoir un épisode fébrile chez un enfant de 2 à 10 ans à Dakar. La partie méthodologique, composée de deux sous-parties, porte sur l'établissement de propriétés techniques d'estimateurs dans le modèle de régression logistique non paramétrique. Ces estimateurs sont obtenus par maximum de vraisemblance pénalisé, dans un cas avec une pénalité de type Lasso ou Group Lasso et dans l'autre cas avec une pénalité de type 1 exposant 0. Dans un premier temps, nous proposons des versions pondérées des estimateurs Lasso et Group Lasso pour le modèle logistique non paramétrique. Nous établissons des inégalités oracles non asymptotiques pour ces estimateurs. Un deuxième ensemble de résultats vise à étendre le principe de sélection de modèle introduit par Birgé et Massart (2001) à la régression logistique. Cette sélection se fait via des critères du maximum de vraisemblance pénalisé. Nous proposons dans ce contexte des critères de sélection de modèle, et nous établissons des inégalités oracles non asymptotiques pour les estimateurs sélectionnés. La pénalité utilisée, dépendant uniquement des données, est calibrée suivant l'idée de l'heuristique de pente. Tous les résultats de la partie méthodologique sont illustrés par des études de simulations numériques
This thesis is devoted to variables selection or model selection in logistic regression. The applied part focuses on the analysis of data from a large socioepidémiological survey, called actu-palu. These large socioepidemiological survey typically involve a considerable number of explanatory variables. This is well-known as high-dimensional setting. Due to the curse of dimensionality, logistic regression model is no longer reliable. We proceed in two steps, a first step of reducing the number of variables by the Lasso, Group Lasso ans random forests methods. The second step is to apply the logistic model to the sub-set of variables selected in the first step. These methods have helped to select relevant variables for the identification of households at risk of having febrile episode amongst children from 2 to 10 years old in Dakar. In the methodological part, as a first step, we propose weighted versions of Lasso and group Lasso estimators for nonparametric logistic model. We prove non asymptotic oracle inequalities for these estimators. Secondly we extend the model selection principle introduced by Birgé and Massart (2001) to logistic regression model. This selection is done using penalized macimum likelihood criteria. We propose in this context a completely data-driven criteria based on the slope heuristics. We prove non asymptotic oracle inequalities for selected estimators. The results of the methodological part are illustrated through simulation studies
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Réduction du stockage des données"

1

Keith, David W. Élaboration d'une stratégie en vue du captage et du stockage du CO2 au Canada. Ottawa, Ont: Environnement Canada, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Camara, Diatta. Données pour les politiques et programmes de développement: Besoins d'information statistique dans les Documents de stratégie de réduction de la pauvreté : Atelier régional de formation sur les nouveaux outils d'analyse des données socio-démographiqes issues d'opérations de collecte de grande envergure. Dakar Ponty, Sénégal: UNPFA/Country Technical Services Team Dakar, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Building storage networks. Berkeley: Osborne/McGraw-Hill, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Farley, Marc. Building storage networks. 2nd ed. New York: Osborne/McGraw-Hill, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Building Storage Networks. New York: McGraw-Hill, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Network, Canadian Harm Reduction. Learning from each other: Enhancing community-based harm reduction programs and practices in Canada. Ottawa, Ont: Canadian AIDS Society, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Logiciels de stockage de données. Vuibert, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kimball, Ralph. Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Kimball, Ralph. The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling (Second Edition). Wiley, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kimball, Ralph. Data Warehouse Toolkit: The Definitive Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2013.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Réduction du stockage des données"

1

PUTEAUX, Pauline, and William PUECH. "Insertion de données cachées dans le domaine chiffré." In Sécurité multimédia 2, 233–77. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9027.ch7.

Full text
Abstract:
Avec le développement de l'informatique en nuage, de nombreux utilisateurs téléchargent leurs données multimédia sur des serveurs distants. Pour assurer leur sécurité, ces données sont généralement chiffrées avant leur transmission et leur stockage. Dans ce chapitre, nous nous intéressons à la problématique du traitement de ces données multimédia chiffrées, et plus particulièrement à l'insertion de données cachées dans le domaine chiffré.
APA, Harvard, Vancouver, ISO, and other styles
2

POUYLLAU, Stéphane. "Nakala : service de publication de données." In Partage et valorisation des données de la recherche, 107–26. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch6.

Full text
Abstract:
Depuis 2013, la très grande infrastructure de recherche (TGIR) Huma-Num offre à la communauté des sciences humaines et sociales (SHS) un service de publication de données, baptisé Nakala. Fondé sur un socle commun, permettant le stockage et l’organisation des fichiers, Nakala s’articule avec des outils d’éditorialisation modulables, donnant la possibilité à chaque projet de recherche de créer sa propre interface web d’accès aux données. En quoi ce dispositif particulier répond aux attentes de la communauté des SHS en France et comment il s’adapte aux politiques d’ouverture des données de la recherche ?
APA, Harvard, Vancouver, ISO, and other styles
3

"Chapitre 9 • Mesure physique et réduction de données." In Guide pratique pour (bien) débuter en spectroscopie astronomique, 155–72. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1950-8-011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

"Chapitre 9 • Mesure physique et réduction de données." In Guide pratique pour (bien) débuter en spectroscopie astronomique, 155–72. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1950-8.c011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

BYSTROVA, Daria, Giovanni POGGIATO, Julyan ARBEL, and Wilfried THUILLER. "Réduction de la dimension dans les modèles de distributions jointes d’espèces." In Approches statistiques pour les variables cachées en écologie, 151–74. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch7.

Full text
Abstract:
Nous présentons les modèles à facteurs latents dans le contexte des modèles de distribution joints d'espèces (JSDM), en soulignant leur utilité en écologie des communautés. Ces modèles permettent de faire face à la grande dimension des données d'observation dans l'espace et le temps, et qui limitent l'application des JSDMs. L'inférence se fait selon une approche bayésienne et est illustrée sur des données d'espèces végétales.
APA, Harvard, Vancouver, ISO, and other styles
6

LEBLOND, Cédric. "Méthodes « avancées » en vibro-acoustique des structures navales." In Interactions fluide-structure, 87–118. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9078.ch4.

Full text
Abstract:
Ce chapitre expose des techniques avancées pour les calculs vibro-acoustiques, visant à prendre en compte des chargements complexes ainsi que les incertitudes sur les données de conception et les variables d’environnement, et met l’accent sur les méthodes de réduction de modèles paramétriques, lesquelles permettent de diminuer les temps de calcul, et de mener des études de sensibilité, de propagation d’incertitudes et d’optimisation.
APA, Harvard, Vancouver, ISO, and other styles
7

CALVET, Louis-Jean. "Quels liens entre langues et mondialisation ?" In Langue(s) en mondialisation, 7–14. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5202.

Full text
Abstract:
En partant de données chiffrées sur les langues, la densité linguistique des différents états, le nombre de locuteurs L1 de ces langues et leurs fonctions (officielles, véhiculaires…) on obtient une photographie de la situation linguistique du monde, qui est traversée par l’histoire ( pratiques sociales, politiques linguistiques, exportation ou importation sur le marché aux langues, etc.). Peut-on en tirer des conclusions sur l’évolution de cette situation ? Quelques intuitions de Charles Ferguson et surtout l’analyse de la situation de l’anglais dans l’Union Européenne post-Brexit permettent d’avancer quelques hypothèses sur les facteurs (réduction des diglossies, évolution des bilinguismes, nationalisme et mondialisation, véhicularisation, etc.) qui peuvent jouer un rôle dans cette complexité.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Réduction du stockage des données"

1

Sicard, L., A. B. Kaddour, D. O'Hana, and R. Khonsari. "Luxation bilatérale de l’articulation temporo-mandibulaire chez l’enfant." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602015.

Full text
Abstract:
La luxation bilatérale non-traumatique de l’articulation temporo-mandibulaire est une pathologie aiguë qui peut évoluer vers la chronicité ou la récurrence. Chez l’enfant, peu de cas ont été rapportés dans la littérature et aucun protocole de prise en charge globale n’a été proposé à ce jour. 2 cas de luxation chronique de l’articulation temporo-mandibulaire chez le jeune enfant sont décrits et leur prise en charge discutée au vue des données issues de la littérature. Lors de la prise en charge de la phase aiguë, le protocole de sédation doit être particulièrement adapté au degré de coopération de l’enfant. La technique de réduction la plus utilisée reste celle de Nelaton. Le type de contention doit être également choisi au mieux pour permettre les fonctions de nutrition et la stabilité du dispositif. L’existence d’une chronicité doit orienter, selon les antécédents du patient, vers la recherche d’une pathologie neurologique, comportementale ou génétique. Les cas présentés sont associés pour l’un à une réponse comportementale d’opposition lors de l’alimentation, pour l’autre à des mouvements spastiques dans un contexte de dystonie. La prise en charge des récurrences sera celle de la pathologie sous-jacente, de manière médicamenteuse ou comportementale, le potentiel de croissance chez l’enfant limitant l’indication chirurgicale. Selon le contexte, l’usage d’injection de toxine botulique peut également être envisagée.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Réduction du stockage des données"

1

Touré, Mariama, Elodie Becquey, Lieven Huybregts, Dieynab Diatta, Andrew Booth, and Roosmarijn Verstraeten. Cartographie des données probantes sur les programmes de réduction de l’émaciation et leur impact le long du continuum de soins, dans les pays à revenu faible ou intermédiaire : revue rapide des résultats de recherche. Washington, DC: International Food Policy Research Institute, 2021. http://dx.doi.org/10.2499/p15738coll2.134682.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography