Academic literature on the topic 'Calcul in situ'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Calcul in situ.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Calcul in situ":

1

SAUVANT, D., and P. NOZIÈRE. "La quantification des principaux phénomènes digestifs chez les ruminants : les relations utilisées pour rénover les systèmes d’unités d’alimentation énergétique et protéique." INRAE Productions Animales 26, no. 4 (August 18, 2013): 327–46. http://dx.doi.org/10.20870/productions-animales.2013.26.4.3162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évolution des systèmes d’unités d’alimentation des ruminants vers des systèmes de lois de réponses multiples nécessite d’actualiser le calcul des apports nutritifs à l’animal, afin de le rendre plus précis sur les unités agrégées (UF et PDI) et plus évolutif (prédiction des nutriments absorbés). Cette actualisation est basée sur la construction et l’interprétation par méta-analyse, de larges bases de données sur la digestion et la nutrition des ruminants. Les différentes équations utilisées pour le calcul des apports UF et PDI ont ainsi été mises à jour, ce qui permet en particulier : i) de prévoir le transit des particules et des liquides en fonction du niveau d’ingestion et de la proportion de concentré, et de prendre en compte les variations de transit dans le calcul des dégradations des protéines et de l’amidon dans le rumen, estimées à partir des données issues de mesures in situ; ii) de prendre en compte les effets des principaux facteurs d’interactions digestives (niveau d’ingestion, proportion de concentré, balance protéique du rumen) sur la digestibilité de la matière organique, les pertes d’énergie sous forme de méthane et sous forme d’urine ; iii) de calculer plus précisément l’énergie disponible dans le rumen et son efficacité d’utilisation pour la synthèse de protéines microbiennes. Ce modèle rénové de la digestion chez les ruminants conduit à considérer que les valeurs UF et PDI des aliments varient en fonction de la ration dans laquelle ils sont incorporés, les valeurs des tables étant indicatives. Il est ainsi possible de prédire plus précisément les apports sur une plus large gamme de régimes, et en particulier de mieux traiter des interactions entre les apports en énergie et en protéines.
2

Champagne de Labriolle, Guillaume. "Détermination de la fenêtre de pilotage de la pression de confinement d’un tunnelier fermé dans un sol cohérent-frottant ou purement cohérent." Revue Française de Géotechnique, no. 155 (2018): 3. http://dx.doi.org/10.1051/geotech/2018005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La détermination de la fenêtre de pilotage de la pression de confinement lors de la conception et de l’exécution d’un tunnel au tunnelier est essentielle afin de garantir la sécurité des travaux, l’intégrité des avoisinants, et la qualité de la mise en œuvre. Dans cet article est d’abord présentée une méthodologie mettant l’accent sur la relation entre le contexte réglementaire de l’Eurocode 7, puis les différents types de calcul à mettre en œuvre. L’article présente par la suite une amélioration des méthodes analytiques existantes vis-à-vis de la stabilité du front de taille. Dans la continuité des nombreux travaux de recherche sur ce thème, on montre que notre approche est à la fois plus adaptée aux conditions rencontrées (tunnel circulaire, conditions multicouches, conditions drainées ou non drainées) et plus robuste théoriquement (nouveau choix pour le coefficient de poussée latéral, comparaison vis-à-vis des méthodes de type analyse limite définissant des bornes théoriques) tout en étant cohérente avec l’allure des mécanismes de rupture réellement observés in situ ou en laboratoire.
3

Poligot-Pitsch, Stéphanie, Pierre Marchand, Aurélie Tisserand, Alexandre Pirolley, Bernard Héry, Christian Salles, Marie-Andrée Arago, Frédéric Hernandez, Claire Rodier, and Marie George Tournoud. "Hydrométrie et continuité écologique : méthodes pour un compromis entre sensibilité et franchissabilité." La Houille Blanche, no. 5-6 (October 2018): 58–65. http://dx.doi.org/10.1051/lhb/2018052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans beaucoup de régions, le contexte physique et la sévérité des étiages que les cours d'eau connaissent ont conduit les hydromètres à utiliser de nombreux seuils comme contrôles hydrauliques afin de fiabiliser les mesures des bas débits. L'amélioration de l'état écologique des cours d'eau requiert a contrario une diminution des obstacles à la continuité écologique. La DREAL Pays de la Loire s'est donc impliquée pour rechercher des solutions de compromis et une méthodologie d'étude évitant le cas par cas pour aboutir à des principes directeurs pour l'étude et le dimensionnement des modifications des seuils. Dans le même temps, l'UMR Hydrosciences de Montpellier étudiait un remodelage d'un seuil implanté près de l'exutoire du tributaire principal de l'étang de Thau, en France, la rivière Vène. L'enjeu essentiel est d'intégrer au seuil existant, un dispositif de montaison de l'anguille européenne (Anguilla anguilla) et de conserver la sensibilité de la mesure pour les conditions de crue tout en améliorant la sensibilité en période d'étiage. Lors de cette étude, on retrouve en filigrane les principes directeurs établis par la DREAL Pays de la Loire. Ceux-ci, établis par croisement des contraintes de l'hydrométrie et de la continuité écologique, consistent à privilégier un profil de seuil à crête épaisse et présentant une encoche, la concentration de l'écoulement à faible débit étant conjointement favorable. L'article propose des exemples de dimensionnement par le calcul et par prototype modifiable in-situ.
4

Gademer, Antoine, Loïca Avanthey, Laurent Beaudouin, Michel Roux, and Jean-Paul Rudant. "Micro-charges utiles dédiées à l'acquisition de données par drone pour l'étude des zones naturelles." Revue Française de Photogrammétrie et de Télédétection, no. 213 (March 31, 2017): 19–31. http://dx.doi.org/10.52638/rfpt.2017.192.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les dernières années ont montré l'intérêt croissant de la télédétection basse altitude (TBA) pour l'étude de zones na-turelles. Mais au-delà de la problématique d'accès au milieu, la cartographie de ces zones à grande échelle pose denombreuses contraintes sur la partie capteurs d'acquisition. En effet, ce sont des milieux difficiles pour les algorithmesclassiques de traitement d'images : intrinsèquement en mouvement (aux échelles d'observations des individus), com-posés d'objets difficilement discernables, ces milieux présentent des conditions météorologiques variables, voir hostiles(éclairage, humidité, température, etc.). Cette cartographie se place généralement dans une étude thématique qui ra-joute ses propres contraintes opérationnelles (besoin d'information 3D comme le relief ou la rugosité, signature spectralespécifique, prises de vues obliques pour simplifier l'identification visuelle par les experts, etc.). Par ailleurs, l'utilisationen télédétection basse altitude de porteurs légers, comme les micro-drones, limite fortement les ressources disponiblespour les capteurs : puissance de calcul embarquée, encombrement, poids, etc.. Nous présenterons dans cet article deuxcapteurs : le capteur tri-caméras et le banc stéréoscopique uEye. Le capteur tri-caméras a été développé en 2009 pour l'ac-quisition d'images stéréoscopiques ou obliques à basse altitude. En analysant l'expérience tirée des campagnes terrainseffectuées, nous soulignerons l'importance cruciale de la synchronisation précise des prises de vues. Nous présenteronsalors notre nouveau banc stéréoscopique amphibie en développement depuis 2013, et qui vise la possibilité d'acquisitionsstéréoscopiques parfaitement synchronisées, ce qui en fait un outil idéal pour l'étude des zones littorales (pour la télédé-tection basse altitude ou in situ à faible profondeur). Nous terminerons par une présentation des premiers résultats obtenusavec ce nouveau banc.
5

Pavageau, Clémence, Pierre Fischer, Gilles Porel, and Laurent Caner. "Suivi de l’infiltration sur le site expérimental hydrogéologique de Poitiers par tomographie de résistivité électrique." E3S Web of Conferences 504 (2024): 05004. http://dx.doi.org/10.1051/e3sconf/202450405004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Site Expérimental Hydrogéologique de Poitiers (SEH) a été le lieu d’implantation de deux profils de résistivité électrique, l’un de 47m et l’autre de 23m. Six acquisitions de résistivités apparentes ont été réalisées entre le 18 juillet 2023 et le 17 novembre 2023 afin de calculer les différences de résistivités avec un profil sec et d’obtenir la variation de teneur en eau du sol. Parallèlement, l’installation de différents capteurs sur une station micro-météorologique à 2 mètres de hauteur a permis l’obtention de données hydrologiques (pluviométrie, teneur en eau du sol) et la réalisation de calculs d’évapotranspiration. Après 4 mois de suivi des mesures et le calcul des différences de résistivités, une cohérence entre les données météorologiques et la géophysique est établie et les premiers résultats sont encourageants. Ils permettent d’envisager leur utilisation dans un modèle hydro-géophysique dynamique en time-lapse pour étudier le bilan hydrologique sur le SEH.
6

Lopes dos Santos, Alexandre. "Prix Boussinesq 2021 : « Détermination du module de cisaillement des sols sous faibles déformations à partir d’une sonde pressiométrique innovante »." Revue Française de Géotechnique, no. 172 (2022): 5. http://dx.doi.org/10.1051/geotech/2022013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’essai au pressiomètre Ménard est l’essai de référence pour la reconnaissance des sols en vue du dimensionnement des ouvrages géotechniques en France. Réalisé selon les normes en vigueur, il fournit un paramètre de déformation et de rupture du sol, respectivement le module pressiométrique Ménard et la pression limite pressiométrique. Ces paramètres peuvent être utilisés pour la conception de fondations superficielles et profondes sous chargements monotones, en s’appuyant sur des méthodes bien établies et comprises dans les normes d’application nationales françaises de l’Eurocode 7. Cependant, pour certaines structures telles que les fondations soumises à des charges cycliques répétées, les paramètres de calcul à prendre en compte correspondent à un niveau de déformation plus faible, qui ne peut être évalué à l’aide des procédures et des équipements pressiométriques usuels. Cet article présente le travail mené dans le cadre de la thèse de doctorat lauréate du Prix Boussinesq 2021 (Lopes A. 2020. Determination of soil shear modulus at low strain level using an innovative pressuremeter probe. Application to cyclic pile design. Thèse de doctorat). Cette thèse avait pour objectif le développement d’une nouvelle méthode de dimensionnement des fondations profondes sous charges axiales cycliques en utilisant l’essai pressiométrique. La recherche était inscrite dans le contexte du Projet National ARSCOP (nouvelles Approches de Reconnaissance des Sols et de la Conception des Ouvrages géotechniques avec le Pressiomètre). La démarche suivie permettant de surmonter les limitations de la pratique pressiométrique actuelle sera présentée, ainsi que la sonde innovante utilisée et les procédures d’essai et d’interprétation proposées. Les résultats obtenus, d’abord en condition d’essai contrôlée en chambre d’étalonnage au laboratoire, et puis en conditions réelles in situ, permettant de valider les procédures, sont présentés et discutés. Les applications à la pratique de l’ingénierie sont ensuite discutées.
7

Gouze, Philippe, Riad Hassani, Dominique Bernard, and Anne Coudrain-Ribstein. "Calcul de l'evolution de la permeabilite des reservoirs sedimentaries contenant des argiles; application a la zone de la faille de Bray (bassin de Paris)." Bulletin de la Société Géologique de France 172, no. 4 (July 1, 2001): 427–36. http://dx.doi.org/10.2113/172.4.427.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Abstract We propose a model for simulating the changes in porosity and permeability caused by hydrothermal diagenesis in sedimentary aquifer where salinity, temperature and fluid flow vary in space and time. Such modifications of the hydrodynamic properties of the medium are bounded to geochemical reactions and groundwater flow. Fluid velocity is particularly low in deep reservoirs (typically less than 1 m/year). Then, the local equilibrium simplification, which is justified by a set of world-wide data of the chemical composition of groundwater, can be implemented toward straightforward transient calculations. In the model presented here, the coupled processes of fluid flow, temperature and chemical species transport are solved using well established methods. The originality of the model is the development carried on to predict the permeability evolution controlled by the mineral dissolution and precipitation. Usually to simulate permeability changes modelers use the classical porosity-permeability model based on statistical analyses of in situ or laboratory measurements. However, hydraulic conductivity changes are not controlled solely by porosity changes, but also depend on pore-scale structure transformations. Depending on the mineral type, the precipitation or dissolution of the same quantity of volumetric quantity will induce very different changes in the hydraulic conductivity. Principally clay minerals depict a wide range of atypical organisations of different microstructural characteristics of the porous media. The spatial distribution of these characteristics cannot be modelled at basin scale. Away from both too complicated and too unrealistically simplified approach, the model presented here is based on the calculation of the permeability evolution from the change in the mineral fraction due to mineral precipitation and dissolution. To simplify, the minerals are divided into two groups: clay minerals and non-clay minerals. The specific contribution of clay minerals is controlled by a single weighting coefficient. This coefficient is associated to the proportion of poorly connected porosity that characterize clay structure, albeit it is presently impossible to propose any quantitative relationship between the value of this parameter and the microstructural characteristics of the diagenetic clays. The model is tested here to simulate the evolution of the porosity and the permeability in a peculiar zone of the Paris Basin. The study area of several hundred meters large is inside the Dogger aquifer, close to the Bray fault zone where invasion of saline water from Triassic formation takes place. This zone is characterised by high thermal and salinity gradient as well as by the superposition of sub-horizontal regional flow and ascendant fault-controlled flow: it is an ideal case study for examining the importance of taking into account the specific contribution by clay minerals when computing permeability evolution. This study is proposed as a parameter sensibility analysis: - to compare the relative influence of the clay weighting coefficient, the temperature, the salinity, and the cementation exponent on the computed evolution of the permeability, - to discuss the consequences of the introduction of the clay weighting coefficient in comparison to the classical porosity - permeability evolution model, - to simulate various evolution scenarios of past and future thermal and geochemical constraints and their consequences on the evolution of the permeability changes in the Bray fault zone taking into account uncertainties on the value of the clay weighting coefficient and on the cementation exponent. Forty-one simulations of one million years were necessary to cover a large spectrum of the expected variations of each parameter. The results show that: - the local variation of the permeability depends on the time evolution of temperature and of salinity, and on the values of the cementation exponent of the porosity-permeability law and of the clay weighting coefficient. Within reasonable ranges of these four parameters, their influence on the permeability changes is of the same order of magnitude, - the influence of the clay weighting coefficient on the porosity evolution is negligible. Feedback effects of permeability evolution on the porosity evolution, through the change in the flow regime, is minor, - by the use of a classical model without a clay weighting coefficient, permeability and porosity present the same pattern of evolution: they both increase or decrease. By the use of the clay weighting coefficient, in some places the permeability and porosity can show opposite evolution. One increases when the other decreases even for low values of the coefficient, - in the vicinity of the fault, the model predict an increase of permeability independently of potential temperature and salinity modifications and whatever the clay mineral weighting coefficient is: Bray fault sealing is unlikely as long as head gradient is maintained in the fracture zone.
8

Breton, C., and C. Marche. "Une aide à la décision pour le choix des interventions en zone inondable." Revue des sciences de l'eau 14, no. 3 (April 12, 2005): 363–79. http://dx.doi.org/10.7202/705424ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article a été réalisé dans le cadre d'un projet de trois ans visant à développer une méthodologie d'analyse, de prévision et de contrôle des risques d'inondation au Québec. Il présente une approche concrète pour calculer les impacts potentiels et le risque d'inondation et utiliser ces résultats afin d'évaluer la situation du risque local, de décider si les impacts doivent être minimisés et de choisir les moyens d'intervention appropriés. Le risque d'inondation est considéré comme étant le produit de la probabilité d'occurrence des crues et des conséquences occasionnées par ces événements. Les pertes de vies potentielles et les dommages directs sont évalués en simulant les niveaux d'eau de différents scénarios d'inondation à partir d'un modèle d'écoulement unidimensionnel non permanent, et en intégrant ces résultats à un logiciel géoréférencé de calcul des dommages d'inondation. L'analyse des impacts et du risque calculé permet de dresser un portrait du montant des dommages annuels potentiels sur les sites habités le long du cours d'eau et un portrait de l'évolution des impacts en fonction de l'amplitude des crues. Cette analyse mène à l'identification des sites où existe un risque jugé inacceptable selon des critères préétablis. Pour chaque site où des interventions sont justifiées par le niveau de risque, des scénarios de minimisation des impacts tenant compte des mécanismes d'inondation sont élaborés et ensuite simulés afin d'en mesurer l'efficacité. Un exemple d'application à un site de la rivière Châteauguay illustre la méthode et les gains pouvant découler de son utilisation.
9

Thampi, Silpa, Irshad Cheriya Parambil, Lakshmikanth Halegubbi Karegowda, and Priyanka Priyanka. "Comparison of Urinary Calculi Size Between Bone and Soft Tissue Window in Computed Tomography." Biomedical and Pharmacology Journal 14, no. 1 (March 30, 2021): 323–28. http://dx.doi.org/10.13005/bpj/2129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Computed Tomography is an important technique for imaging the urinary calculi using cross sectional images. The size and site of the calculi are significant aspect that are necessary for treatment. Therefore, present study aims to compare diameters of calculi measured using bone and soft tissue window settings in CT and also determinesmost frequent site for occurrence of calculi in urinary system. This is a retrospective study including total of 126 patients (91 males, 35 females, age range: 20-50 years). The patients who had undergone non contrast enhanced computed tomography of Kidney Ureter and Bladder (NCCT KUB) and diagnosed with urinary calculi were included in study. For each calculus found on CT image, two diameters such as maximum diameter and perpendicular diameter was measured on coronal plane using soft tissue and bone window settings. Site of calculi was also noted.To compare diameters measured using soft tissue and bone window settings Wilcoxon signed ranks test was used.Mean of maximum diameter and perpendicular diameter of the calculi measured by soft tissue and bone window settings in CT was 0.74±0.5, 0.82 ±1.8 and 0.79 ± 0.5 ,0.67 ± 0.49 respectively. It was found that there was significant difference in diameters of calculi measured using soft tissue and bone window setting (p<0.0001). The study concludes that there was mean difference of0.08 cms and 0.12 cms for maximum axial diameter and perpendicular diameter respectively measured using soft tissue and bone window settings in CT. Calculi in kidneys was most common site in our study population.
10

Maheshwari, Pankaj N., and Hemendra N. Shah. "In-Situ Holmium Laser Lithotripsy for Impacted Urethral Calculi." Journal of Endourology 19, no. 8 (October 2005): 1009–11. http://dx.doi.org/10.1089/end.2005.19.1009.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Calcul in situ":

1

Dirand, Estelle. "Développement d'un système in situ à base de tâches pour un code de dynamique moléculaire classique adapté aux machines exaflopiques." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM065/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’ère de l’exascale creusera encore plus l’écart entre la vitesse de génération des données de simulations et la vitesse d’écriture et de lecture pour analyser ces données en post-traitement. Le temps jusqu’à la découverte scientifique sera donc grandement impacté et de nouvelles techniques de traitement des données doivent être mises en place. Les méthodes in situ réduisent le besoin d’écrire des données en les analysant directement là où elles sont produites. Il existe plusieurs techniques, en exécutant les analyses sur les mêmes nœuds de calcul que la simulation (in situ), en utilisant des nœuds dédiés (in transit) ou en combinant les deux approches (hybride). La plupart des méthodes in situ traditionnelles ciblent les simulations qui ne sont pas capables de tirer profit du nombre croissant de cœurs par processeur mais elles n’ont pas été conçues pour les architectures many-cœurs qui émergent actuellement. La programmation à base de tâches est quant à elle en train de devenir un standard pour ces architectures mais peu de techniques in situ à base de tâches ont été développées.Cette thèse propose d’étudier l’intégration d’un système in situ à base de tâches pour un code de dynamique moléculaire conçu pour les supercalculateurs exaflopiques. Nous tirons profit des propriétés de composabilité de la programmation à base de tâches pour implanter l’architecture hybride TINS. Les workflows d’analyses sont représentés par des graphes de tâches qui peuvent à leur tour générer des tâches pour une exécution in situ ou in transit. L’exécution in situ est rendue possible grâce à une méthode innovante de helper core dynamique qui s’appuie sur le concept de vol de tâches pour entrelacer efficacement tâches de simulation et d’analyse avec un faible impact sur le temps de la simulation.TINS utilise l’ordonnanceur de vol de tâches d’Intel® TBB et est intégré dans ExaStamp, un code de dynamique moléculaire. De nombreuses expériences ont montrées que TINS est jusqu’à 40% plus rapide que des méthodes existantes de l’état de l’art. Des simulations de dynamique moléculaire sur des système de 2 milliards de particles sur 14,336 cœurs ont montré que TINS est capable d’exécuter des analyses complexes à haute fréquence avec un surcoût inférieur à 10%
The exascale era will widen the gap between data generation rate and the time to manage their output and analysis in a post-processing way, dramatically increasing the end-to-end time to scientific discovery and calling for a shift toward new data processing methods. The in situ paradigm proposes to analyze data while still resident in the supercomputer memory to reduce the need for data storage. Several techniques already exist, by executing simulation and analytics on the same nodes (in situ), by using dedicated nodes (in transit) or by combining the two approaches (hybrid). Most of the in situ techniques target simulations that are not able to fully benefit from the ever growing number of cores per processor but they are not designed for the emerging manycore processors.Task-based programming models on the other side are expected to become a standard for these architectures but few task-based in situ techniques have been developed so far. This thesis proposes to study the design and integration of a novel task-based in situ framework inside a task-based molecular dynamics code designed for exascale supercomputers. We take benefit from the composability properties of the task-based programming model to implement the TINS hybrid framework. Analytics workflows are expressed as graphs of tasks that can in turn generate children tasks to be executed in transit or interleaved with simulation tasks in situ. The in situ execution is performed thanks to an innovative dynamic helper core strategy that uses the work stealing concept to finely interleave simulation and analytics tasks inside a compute node with a low overhead on the simulation execution time.TINS uses the Intel® TBB work stealing scheduler and is integrated into ExaStamp, a task-based molecular dynamics code. Various experiments have shown that TINS is up to 40% faster than state-of-the-art in situ libraries. Molecular dynamics simulations of up to 2 billions particles on up to 14,336 cores have shown that TINS is able to execute complex analytics workflows at a high frequency with an overhead smaller than 10%
2

Meyer, Lucas. "Deep Learning en Ligne pour la Simulation Numérique à Grande Échelle." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALM001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nombreuses applications d’ingénieries et recherches scientifiques nécessitent la simulation fidèle de phénomènes complexes et dynamiques, transcrits mathématiquement en Équations aux Dérivées Partielles (EDP). Les solutions de ces EDP sont généralement approximées au moyen de solveurs qui effectuent des calculs intenses et génèrent des quantités importantes de données. Les applications requièrent rarement une unique simulation, mais plutôt un ensemble d’exécutions pour différents paramètres afin d’analyser la sensibilité du phénomène ou d’en trouver une configuration optimale. Ces larges ensembles de simulations sont limités par des temps de calcul importants et des capacités de stockage mémoire finies. La problématique du coût de calcul a jusqu’à présent encouragé le développement du calcul haute-performance (HPC) et de techniques de réductions de modèles. Récemment, le succès de l'apprentissage profond a poussé la communauté scientifique à considérer son usage pour accélérer ces ensembles de simulations. Cette thèse s'inscrit dans ce cadre en explorant tout d'abord deux techniques d’apprentissage pour la simulation numérique. La première propose d’utiliser une série de convolutions sur une hiérarchie de graphes pour reproduire le champ de vitesse d’un fluide tel que généré par le solveur à tout pas de temps de la simulation. La seconde hybride des algorithmes de régression avec des techniques classiques de réduction de modèles pour prédire les coefficients de toute nouvelle simulation dans une base réduite obtenue par analyse en composantes principales. Ces deux approches, comme la majorité de celles présentées dans la littérature, sont supervisées. Leur entraînement nécessite de générer a priori de nombreuses simulations. Elles souffrent donc du même problème qui a motivé leur développement : générer un jeu d’entraînement de simulations fidèles à grande échelle est laborieux. Nous proposons un cadre d’apprentissage générique pour l’entraînement de réseaux de neurones artificiels à partir de simulations générées à la volée tirant profit des ressources HPC. Les données sont produites en exécutant simultanément plusieurs instances d’un solveur pour différents paramètres. Le solveur peut lui-même être parallélisé sur plusieurs unités de calcul. Dès qu’un pas de temps est simulé, il est directement transmis pour effectuer l’apprentissage. Aucune donnée générée par le solveur n’est donc sauvegardée sur disque, évitant ainsi les coûteuses opérations d’écriture et de lecture et la nécessité de grands volumes de stockage. L’apprentissage se fait selon une distribution parallèle des données sur plusieurs GPUs. Comme il est désormais en ligne, cela crée un biais dans les données d’entraînement, comparativement à une situation classique où les données sont échantillonnées uniformément sur un ensemble de simulations disponibles a priori. Nous associons alors chaque GPU à une mémoire tampon en charge de mélanger les données produites. Ce formalisme a permis d’améliorer les capacités de généralisation de modèles issus de l’état de l’art, en les exposant à une diversité globale de données simulées plus riches qu’il n’aurait été faisable lors d’un entraînement classique. Des expériences montrent que l’implémentation de la mémoire tampon est cruciale pour garantir un entraînement de qualité à haut débit. Ce cadre d’apprentissage a permis d’entraîner un réseau à reproduire des simulations de diffusion thermique en moins de 2 heures sur 8TB de données générées et traitées in situ, améliorant ainsi les prédictions de 47% par rapport à un entraînement classique
Many engineering applications and scientific discoveries rely on faithful numerical simulations of complex phenomena. These phenomena are transcribed mathematically into Partial Differential Equation (PDE), whose solution is generally approximated by solvers that perform intensive computation and generate tremendous amounts of data. The applications rarely require only one simulation but rather a large ensemble of runs for different parameters to analyze the sensitivity of the phenomenon or to find an optimal configuration. Those large ensemble runs are limited by computation time and finite memory capacity. The high computational cost has led to the development of high-performance computing (HPC) and surrogate models. Recently, pushed by the success of deep learning in computer vision and natural language processing, the scientific community has considered its use to accelerate numerical simulations. The present thesis follows this approach by first presenting two techniques using machine learning for surrogate models. First, we propose to use a series of convolutions on hierarchical graphs to reproduce the velocity of fluids as generated by solvers at any time of the simulation. Second, we hybridize regression algorithms with classical reduced-order modeling techniques to identify the coefficients of any new simulation in a reduced basis computed by proper orthogonal decomposition. These two approaches, as the majority found in the literature, are supervised. Their training needs to generate a large number of simulations. Thus, they suffer the same problem that motivated their development in the first instance: generating many faithful simulations at scale is laborious. We propose a generic training framework for artificial neural networks that generate data simulations on-the-fly by leveraging HPC resources. Data are produced by running simultaneously several instances of the solver for different parameters. The solver itself can be parallelized over several processing units. As soon as a time step is computed by any simulation, it is streamed for training. No data is ever written on disk, thus overcoming slow input-output operations and alleviating the memory footprint. Training is performed by several GPUs with distributed data-parallelism. Because the training is now online, it induces a bias in the data compared to classical training, for which they are sampled uniformly from an ensemble of simulations available a priori. To mitigate this bias, each GPU is associated with a memory buffer in charge of mixing the incoming simulation data. This framework has improved the generalization capabilities of state-of-the-art architectures by exposing them during training to a richer diversity of data than would have been feasible with classical training. Experiments show the importance of the memory buffer implementation in guaranteeing generalization capabilities and high throughput training. The framework has been used to train a deep surrogate for heat diffusion simulation in less than 2 hours on 8TB of data processed in situ, thus increasing the prediction accuracy by 47% compared to a classical setting
3

Ali, Hassan. "Caractérisation améliorée des sols par l'essai de chargement de pointe au piézocone. Application au calcul des fondations profondes." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00629642.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'essai de chargement d'une pointe pénétrométrique (Cone Loading Test, essai CLT) est un nouvel essai de reconnaissance des sols in situ, qui constitue une amélioration majeure de l'essai de pénétration statique avec une pointe piézocône (CPTu). L'essai de chargement de pointe consiste à interrompre la pénétration classique (EN ISO 22476-1) à une cote souhaitée et à réaliser un chargement par paliers successifs de la pointe jusqu'à la rupture du sol.La courbe de chargement, reliant la pression appliquée sur la pointe au tassement de celle-ci,est riche en renseignements sur la déformabilité des sols. L'essai permet donc une caractérisation améliorée des sols en fournissant des paramètres de déformabilité aussi bien que les paramètres de résistance obtenus lors d'un essai de pénétration statique classique.La validation de la méthode d'essai et de son protocole expérimental, a été effectuée selon trois voies complémentaires : expérimentale, numérique et physique. Au niveau expérimental, plusieurs campagnes d'essais ont été réalisées en choisissant des sites intéressants pour le projet et contenants une importante base de données (essais in situ,au laboratoire, essais de pieux, essais sismiques...) comme le site des argiles des Flandres de Merville, un site sableux à Utrecht aux Pays-Bas, et un site sableux à Limelette en Belgique.Les résultats des différentes campagnes ont montré qu'il est possible d'avoir des courbes de chargement exploitables pour le calcul d'un module de déformation, utilisable et comparable en tout point aux modules obtenus par d'autres types d'essais. L'essai est adapté à un panel de sol très varié. Il est plus représentatif de l'état initial dans le sol que d'autres types d'essais.Par ailleurs les conditions aux limites sont bien maîtrisées.Au niveau numérique, une large étude paramétrique a été menée avec le logiciel Plaxis, pour tester l'influence de la géométrie de la pointe, du type de chargement, du modèle de comportement, des paramètres du sol, ainsi que des conditions initiales et au limite du problème. Des essais CLT ont été également réalisés sur des modèles réduits en centrifugeuse, pour tester l'influence de quelques paramètres comme la vitesse de chargement, la géométrie de l'embout de la pointe, la densité du massif ainsi que le niveau de g. Ces essais ont été associés à des essais de chargement de pieu instrumenté et des essais de fondations superficielles et profondes afin de pouvoir relier les paramètres mécaniques de l'essai CLT au comportement des ouvrages. En considérant que la pointe du pénétromètre est un modèle réduit de pieu, une retombée directe de l'essai CLT est sa capacité d'être un outil de dimensionnement de fondations. A cet effet, une méthode directe utilisant la résistance de pointe et le frottement latéral limite de l'essai CLT a été proposée pour calculer la capacité portante et prédire le tassement d'un pieu.Cette méthode consiste en une nouvelle approche transformant les courbes de chargement et celles de mobilisation de frottement d'un essai CLT point par point en courbe charge-déplacement d'un pieu (courbes t-z).
4

Ricard, Nadine. "Estimation de teneurs en minéraux industriels par analyse d'images "in situ" : application au gisement d'andalousites de Glomel (Côtes d'Armor)." Montpellier 2, 1995. http://www.theses.fr/1995MON20035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette these est de mettre au point une nouvelle methode de dosage et de reconnaissance de l'andalousite de glomel (cotes d'armor). Apres une presentation de la carriere d'andalousites de glomel, nous abordons les deux phases essentielles de cette methode: l'estimation de la teneur en andalousites sur une image par analyse d'images et l'estimation de la teneur d'un front a l'aide de la geostatistique. Une derniere partie degage les caracteristiques de cette methode par rapport a celle traditionnellement employee
5

Thébault, Simon Romain. "Contribution à l'évaluation in situ des performances d'isolation thermique de l'enveloppe des bâtiments." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI008/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte d’économie d’énergie et de réduction des émissions de gaz à effet de serre, de nombreux efforts ont été réalisés en France pour renforcer l’isolation de l’enveloppe des bâtiments afin de contribuer à réduire les consommations de chauffage. Toutefois, il arrive souvent que la performance thermique calculée avant construction ou rénovation ne soit pas atteinte sur le terrain (erreur de calcul, défauts de mise en œuvre, etc.). Or, pour pouvoir généraliser la construction de bâtiments à basse consommation et la rénovation, il faut pouvoir garantir aux maîtres d'ouvrage une performance réelle de leur bâtiment après travaux. Le fait de mesurer in situ la performance intrinsèque d'isolation thermique de l'enveloppe permet de contribuer à cette garantie. Il existe à l’échelle internationale de nombreuses méthodes basées sur le suivi des consommations et des conditions thermiques intérieures et extérieures. Certaines ont déjà fait leurs preuves sur le terrain, mais sont souvent soit contraignantes, soit peu précises. Et surtout, les calculs d’incertitude associés sont souvent rudimentaires. L’objectif de ce travail financé par le CSTB est de consolider scientifiquement une nouvelle méthode de mesure de la qualité d’isolation globale d’un bâtiment à réception des travaux (méthode ISABELE). Dans le premier chapitre, un état de l'art sur les méthodes existantes a été réalisé afin de dégager des pistes d'amélioration sur la base d'une synthèse comparative. La piste prioritaire identifiée porte sur le calcul d'incertitude (un point central du problème). La propagation des erreurs aléatoires par un approche bayésienne ainsi que des erreurs systématiques par une approche plus classique feront l'objet de la méthodologie globale proposée dans le second chapitre. L'une des importantes sources d'incertitude porte sur l'évaluation du débit d'infiltration. La caractérisation de cette incertitude et de l'impact sur le résultat de mesure fera l'objet du troisième chapitre, avec un comparatif de différentes approches expérimentales (règle du pouce, modèles aérauliques, gaz traceur). Enfin, une amélioration de la prise en compte de la dynamique thermique du bâtiment au cours du test sera proposée dans le dernier chapitre. Son fondement repose sur l'adaptation du modèle thermique inverse en fonction du bâtiment et des conditions du test. Pour cela, une sélection parmi une banque de modèles simplifiés est réalisée sur la base de critères statistiques et du principe de parcimonie. Ces différentes dispositions ont été testés sur une large série de mesures menées sur un même bâtiment à ossature bois (chalet OPTIMOB). La robustesse et la précision du résultat de mesure ont ainsi pu être légèrement améliorées. La méthode de calcul du débit d'infiltration, ni trop simple ni trop complexe, a pu également être validée. Enfin, le temps de mesure minimal nécessaire a pu être déterminé en fonction de la classe d'inertie du bâtiment
The global context of energy savings and greenhouse gases emissions control led to significant efforts in France to boost the thermal insulation in buildings in order to reduce heating consumption. Nevertheless, the stated thermal performance before construction or refurbishment is rarely achieved in practice, for many reasons (calculation errors, defects in materials or workmanship, etc.). Yet, guaranteeing the real thermal performance of buildings on the spot is crucial to enhance the refurbishment market and the construction of energy efficient buildings. To do so, measurement techniques of the intrinsinc thermal insulation performance indicators are needed. Such techniques already exist worldwide, and consist in processing the measurement data from the indoor and outdoor thermal conditions and the heat consumption. Some of them have already proved themselves in the field, but are either binding or very imprecise. And above all, the related uncertainty calculations are often rough. The objective of this thesis funded by CSTB is to consolidate a novel measurement method of the thermal insulation quality of a whole building after reception of work (ISABELE method). In the first chapter, a state of the art of the existing methods allows to identify possible ways to pursue this goal from a comparative synthesis. The primary reflection is about the uncertainty calculation method (which is a central issue). The second chapter presents a global methodology to combine the propagation of random and systematic errors from bayesian and classical approaches. One of the most important uncertainty sources deals with the infiltration air flow evaluation during the test. The third chapter investigates the characterization of this uncertainty, as well as its impact on the final result, depending on the chosen experimental approach (rule of thumb, simplified aeraulic models, tracer gases). Lastly, an improvement of the inclusion of the bluiding thermal dynamics during the test will be proposed in the last chapter. The basis of this improvement is to adapt the inverse model according to the building type and the test conditions. To do so, the proposed algorithm selects a model form a variety of simplified greybox models based on statistical criteria and parcimony. All these contributions have been tested on a large serie of measurements on a same timber-framed building (OPTIMOB shed). The robustness and precision of the results have been slightly improved. The intial infiltration air flow calculation, neither too simple of too complicated, has also been validated. Finaly, a better ordrer of magnitude of the minimal test duration has been determined, depending on the building inertia
6

Honore, Valentin. "Convergence HPC - Big Data : Gestion de différentes catégories d'applications sur des infrastructures HPC." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calcul haute performance est un domaine scientifique dans lequel de très complexes et intensifs calculs sont réalisés sur des infrastructures de calcul à très large échelle appelées supercalculateurs. Leur puissance calculatoire phénoménale permet aux supercalculateurs de générer un flot de données gigantesque qu'il est aujourd'hui difficile d'appréhender, que ce soit d'un point de vue du stockage en mémoire que de l'extraction des résultats les plus importants pour les applications.Nous assistons depuis quelques années à une convergence entre le calcul haute performance et des domaines tels que le BigData ou l'intelligence artificielle qui voient leurs besoins en terme de capacité de calcul exploser. Dans le cadre de cette convergence, une grande diversité d'applications doit être traitée par les ordonnanceurs des supercalculateurs, provenant d'utilisateurs de différents horizons pour qui il n'est pas toujours aisé de comprendre le fonctionnement de ces infrastructures pour le calcul distribué.Dans cette thèse, nous exposons des solutions d'ordonnancement et de partitionnement de ressources pour résoudre ces problématiques. Pour ce faire, nous proposons une approche basée sur des modèles mathématiques qui permet d'obtenir des solutions avec de fortes garanties théoriques de leu performance. Dans ce manuscrit, nous nous focalisons sur deux catégories d'applications qui s'inscrivent en droite ligne avec la convergence entre le calcul haute performance et le BigData:les applications intensives en données et les applications à temps d'exécution stochastique.Les applications intensives en données représentent les applications typiques du domaine du calcul haute performance. Dans cette thèse, nous proposons d'optimiser cette catégorie d'applications exécutées sur des supercalculateurs en exposant des méthodes automatiques de partitionnement de ressources ainsi que des algorithmes d'ordonnancement pour les différentes phases de ces applications. Pour ce faire, nous utilisons le paradigme in situ, devenu à ce jour une référence pour ces applications. De nombreux travaux se sont attachés à proposer des solutions logicielles pour mettre en pratique ce paradigme pour les applications. Néanmoins, peu de travaux ont étudié comment efficacement partager les ressources de calcul les différentes phases des applications afin d'optimiser leur temps d'exécution.Les applications stochastiques constituent la deuxième catégorie d'applications que nous étudions dans cette thèse. Ces applications ont un profil différent de celles de la première partie de ce manuscrit. En effet, contrairement aux applications de simulation numérique, ces applications présentent de fortes variations de leur temps d'exécution en fonction des caractéristiques du jeu de données fourni en entrée. Cela est dû à leur structure interne composée d'une succession de fonctions, qui diffère des blocs de code massifs composant les applications intensive en données.L'incertitude autour de leur temps d'exécution est une contrainte très forte pour lancer ces applications sur les supercalculateurs. En effet, l'utilisateur doit réserver des ressources de calcul pour une durée qu'il ne connait pas. Dans cette thèse, nous proposons une approche novatrice pour aider les utilisateurs à déterminer une séquence de réservations optimale qui minimise l'espérance du coût total de toutes les réservations. Ces solutions sont par la suite étendues à un modèle d'applications avec points de sauvegarde à la fin de (certaines) réservations afin d'éviter de perdre le travail réalisé lors des réservations trop courtes. Enfin, nous proposons un profiling d'une application stochastique issue du domaine des neurosciences afin de mieux comprendre les propriétés de sa stochasticité. A travers cette étude, nous montrons qu'il est fondamental de bien connaître les caractéristiques des applications pour qui souhaite élaborer des stratégies efficaces du point de vue de l'utilisateur
Numerical simulations are complex programs that allow scientists to solve, simulate and model complex phenomena. High Performance Computing (HPC) is the domain in which these complex and heavy computations are performed on large-scale computers, also called supercomputers.Nowadays, most scientific fields need supercomputers to undertake their research. It is the case of cosmology, physics, biology or chemistry. Recently, we observe a convergence between Big Data/Machine Learning and HPC. Applications coming from these emerging fields (for example, using Deep Learning framework) are becoming highly compute-intensive. Hence, HPC facilities have emerged as an appropriate solution to run such applications. From the large variety of existing applications has risen a necessity for all supercomputers: they mustbe generic and compatible with all kinds of applications. Actually, computing nodes also have a wide range of variety, going from CPU to GPU with specific nodes designed to perform dedicated computations. Each category of node is designed to perform very fast operations of a given type (for example vector or matrix computation).Supercomputers are used in a competitive environment. Indeed, multiple users simultaneously connect and request a set of computing resources to run their applications. This competition for resources is managed by the machine itself via a specific program called scheduler. This program reviews, assigns andmaps the different user requests. Each user asks for (that is, pay for the use of) access to the resources ofthe supercomputer in order to run his application. The user is granted access to some resources for a limited amount of time. This means that the users need to estimate how many compute nodes they want to request and for how long, which is often difficult to decide.In this thesis, we provide solutions and strategies to tackle these issues. We propose mathematical models, scheduling algorithms, and resource partitioning strategies in order to optimize high-throughput applications running on supercomputers. In this work, we focus on two types of applications in the context of the convergence HPC/Big Data: data-intensive and irregular (orstochastic) applications.Data-intensive applications represent typical HPC frameworks. These applications are made up oftwo main components. The first one is called simulation, a very compute-intensive code that generates a tremendous amount of data by simulating a physical or biological phenomenon. The second component is called analytics, during which sub-routines post-process the simulation output to extract,generate and save the final result of the application. We propose to optimize these applications by designing automatic resource partitioning and scheduling strategies for both of its components.To do so, we use the well-known in situ paradigm that consists in scheduling both components together in order to reduce the huge cost of saving all simulation data on disks. We propose automatic resource partitioning models and scheduling heuristics to improve overall performance of in situ applications.Stochastic applications are applications for which the execution time depends on its input, while inusual data-intensive applications the makespan of simulation and analytics are not affected by such parameters. Stochastic jobs originate from Big Data or Machine Learning workloads, whose performanceis highly dependent on the characteristics of input data. These applications have recently appeared onHPC platforms. However, the uncertainty of their execution time remains a strong limitation when using supercomputers. Indeed, the user needs to estimate how long his job will have to be executed by the machine, and enters this estimation as his first reservation value. But if the job does not complete successfully within this first reservation, the user will have to resubmit the job, this time requiring a longer reservation
7

Brunet, Laurence. "Repartition spatiale de la densite electronique moleculaire en composantes atomiques in situ." Paris 6, 1987. http://www.theses.fr/1987PA066042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Modelisation originale de la densite electronique moleculaire par la superposition de densites atomiques spheriques, centrees sur les noyaux a partir de calculs d'orbitales moleculaires, avec trois invariants : la charge totale, le potentiel electrons-noyaux, le moment dipolaire. Description de la methode numerique pour determiner les densites associes aux atomes dans une base d'orbitales gaussiennes. Renseignements obtenus sur les modifications spatiales de la charge electronique par formation de liaisons, sur les facteurs de structure atomiques effectifs, apres transformation de fourier, en tenant compte de l'effet de l'environnement. Extension de la methode a la decomposition de la densite electronique moleculaire en densites composantes, autres qu'atomiques et non necessairement centrees sur les noyaux. Outre les applications a l'etude de la structure et des proprietes electroniques des molecules, proposition d'utilisation au calcul des polarisabilites optiques (lineaires ou non), a l'analyse des donnees cristallographiques obtenues par diffraction de rayon x et a la prevision de la structure des cristaux moleculaires
8

Corfdir, Alain. "Analyse de la stabilité d'ouvrages en gabions cellulaires par la théorie du calcul à la rupture." Phd thesis, Marne-la-vallée, ENPC, 1997. http://www.theses.fr/1997ENPC9704.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les gabions cellulaires sont constitués d'une enceinte de palplanches métalliques remplies d'un remblai frottant. Ils sont utilisés dans des sites portuaires ou fluviaux comme soutènements ou comme batardeaux. Bien qu'utilisés depuis plus de 80 ans, leur fonctionnement mécanique n'est qu'imparfaitement compris et des accidents surviennent encore, y compris en cours de construction. L'emploi des méthodes fondées sur la théorie du calcul à la rupture peut contribuer à fonder le dimensionnement de ces ouvrages sur des bases rigoureuses. Le calcul à la rupture des gabions cellulaires présente plusieurs particularités : géométrie authentiquement tridimensionnelle, modélisation mixte des éléments constitutifs (enceinte de palplanches modélisées comme une coque, matériau de remblai modélisé comme un milieu continu 3D). Les travaux antérieurs utilisant le calcul à la rupture ont toujours considéré des cinématiques dans lesquelles les palplanches restaient droites. La modélisation coque des palplanches permet notamment d'envisager des cinématiques avec des déformations en flexion des palplanches ce qui correspond à certaines observations d'accidents ou de modèles réduits à grande échelle. Donnons maintenant le plan général de ce mémoire. Un premier chapitre introductif rappelle la constitution des gabions et des gabionnades, leurs utilisations et leurs méthodes de dimensionnement. Le chapitre 2 donne les bases de la modélisation des gabions que nous utiliserons dans la suite. Les chapitres 3, 4, 5 et 6, appliquent les méthodes statiques et cinématique au gabion isolé et à la gabionnade. Le chapitre 7 est consacré à la comparaison des résultats avec des données de différents types : mesures in situ, cas d'accident, essais sur modèles réduits
Cellular cofferdams are constituted by a shell of steel sheetpiles filled with sand or gravel backfill. They are used in harbour or fluvial locations as earth or water retaining structures. Although they have been in use for more than 80 years, their mechanical behaviour is still poorly understood and accidents still occur even during construction. The use of design methods based on yield design theory can contribute to found the design of cellular cofferdams on rigorous bases. The yield design of cellular cofferdams has some particular characteristics : true 3-dimentional geometry, mixed modelling of the structure (the sheetpiles are modelled as a shell, the backfill as a 3-dimensional ontinuous media). Modelling sheetpiles as a shell makes it possible to consider kinematic fields with flexure strain of the sheetpiles. Flexures strain has been observed on some accidents and some model tests. The present work opens with an introductory chapter dealing with the construction of cellular cofferdams, their applications and design methods. Chapter 2 deals with the modelling of cellular cofferdams. Chapters 3, 4, 5 and 6 deal with the application of static and kinematic methods to a single cofferdam cell and to cellular cofferdams. In chapter 7, the results are compared to data from different sources : filed measurements, case of accident, model tests
9

Aifaoui, Nizar. "Intégration CAO-Calcul : une approche par les features de calcul." Valenciennes, 2003. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/98068c03-3ddc-4cd1-89d0-d3ed317dff1c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche ont eu lieu entre le LAMIH, équipe Systèmes de Production de l'UVHC et LGM de l'ENIM de Tunisie sous la co-direction des professeurs René SOENEN et Abdelwaheb DOGUI. L'objectif de notre travail est de contribuer à l'intégration des tâches de l'analyse mécanique dans les phases amont de la conception. Nous proposons une approche permettant d'assister et de guider le concepteur dans la démarche de modélisation et de résolution de problèmes de calcul typiques couramment rencontrés en conception. Cette approche est basée sur le concept original de feature de calcul. Ce concept a été émergé à la lumière d'une analyse expérimentale des processus de conception-calcul de plusieurs cas concrets de conception, choisis pour leur complémentarité et leur représentativité. Des classes de features caractérisant les problèmes de calcul rencontrés dans les domaines de modélisation de produit les plus concernés par le calcul ont été proposées. Ensuite, un catalogue de features, inspiré des problèmes de calcul rencontrés dans l'étude expérimentale a été développé. Ce catalogue englobe une liste non exhaustive de features de calcul particulières. Nos propositions incluent les diagrammes de classes UML du catalogue, ainsi que les processus de sélection et d'instanciation des features à partir du catalogue. Dans ces travaux, les avantages et les limites de l'approche proposée sont mis en évidence suite à une validation expérimentale du concept de feature de calcul sur des cas de conception
This research work is the result of the cooperation between the LAMIH-SP of the UVHC and the LGM of the ENIM of Tunisia and is guided by professor René SOENEN and professor Abdelwaheb DOGUI. The goal of the work is to contribute to a better integration of mechanical analysis tasks in the early design process. We present intended to aid and to guide the designer in the modeling and in the resolution of typical mechanical analysis problems, which are usually encountered in design processes. This approach is based on the original concept of Analysis Feature. This concept emerged on the basis of an experimental study of the design-analysis processes of several real design cases, which were chosen for their complementarity and their representativity. The classes of features characterizing the analysis problems encountered in two product modeling levels, which are the most concerned by analysis tasks, have been proposed. Then, a catalogue of particular features, inspired from the analysis problems encountered in the experimental study, has been developed. This catalogue includes a set of particular analysis features. Our proposals include the UML class diagram of the catalogue and the processes for the selection and the instanciation of catalogue features. In this work, the advantages and the limits of our approach are identified using an experimental validation of the concept of analysis feature based on a real design cases
10

Silva, Kélio Garcia [UNESP]. "Avaliação in situ da capacidade remineralizadora de selantes que contenham fosfato de cálcio amorfo e/ou fluoreto." Universidade Estadual Paulista (UNESP), 2007. http://hdl.handle.net/11449/104232.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Made available in DSpace on 2014-06-11T19:33:00Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-12-20Bitstream added on 2014-06-13T21:05:39Z : No. of bitstreams: 1 silva_kg_dr_araca.pdf: 1119234 bytes, checksum: 5618d5d8828102cf1192a2ce0a173ef5 (MD5)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
O objetivo desse estudo foi avaliar in situ o potencial remineralizador de selantes que contenham fosfato de cálcio amorfo e/ou fluoreto com lesão artificial de cárie em esmalte de superfície lisa. Dez voluntários participaram desse estudo triplo cego com duração de 5 dias para cada grupo (esmalte desmineralizado + Fluroshield, esmalte desmineralizado + Aegis (ACP), esmalte desmineralizado + Fluoreto (experimental), esmalte desmineralizado + ACP + Fluoreto (experimental) e esmalte desmineralizado – Controle) e intervalo de 7 dias entre eles. Dez dias antes do início e durante todo o experimento os voluntários utilizaram dentifrício não fluoretado. Após o período experimental, foram avaliadas a porcentagem de recuperação de microdureza de superfície (%MDS), recuperação da área mineral integrada (_Z) e determinada a concentração de fluoreto (μg F/mm3), cálcio (μg Ca/mm3) e fósforo (μg P/mm3) presentes no esmalte. Os dados obtidos da %MDS e _Z foram submetidos à Análise de Variância seguida do teste de Tukey, e os do fluoreto, cálcio e fósforo foram submetidos ao teste de Kruskal-Wallis (p<0,05). Todas as variáveis foram submetidas à análise de regressão e ajustadas de acordo com a tendência. Os grupos de materiais com fluoreto e/ou ACP apresentaram maior capacidade remineralizadora (%MDS e _Z) quando comparado com o grupo Controle. O grupo com apenas ACP apresentou resultado melhor ou semelhante quando comparado com os outros grupos e a associação do ACP e fluoreto não mostrou ser mais eficiente. A lesão de cárie mostrou-se mais remineralizada na distância de 150 ìm quando comparada com a de 600 ìm para os valores de %MDS. As concentrações de fluoreto, cálcio e fósforo presentes no esmalte variaram de acordo com o grupo analisado. Entre as variáveis avaliadas, somente foi verificada correlação entre %MDS e _Z.
The purpose of this study was to evaluate in situ the remineralizing potential of sealants containing amorphous calcium phosphate and/or fluoride in artificially induced carious lesions on smooth enamel surfaces. Ten volunteers took part in this triple-blind study, which had the duration of 5 days for each group: demineralized enamel + Fluroshield; demineralized enamel + Aegis (ACP); demineralized enamel + Fluoride (experimental); demineralized enamel + ACP + Fluoride (experimental) and demineralized enamel (Control). A wash-out period of 7 days was allowed between the treatments. Ten days before and during the whole experiment the volunteers used a non-fluoridated dentifrice. After the experimental period, the percentage recovery of surface microhardness (%RSM) and the recovery of integrated mineral area (HZ) were evaluated. The concentration of fluoride (Jg F/mm3), calcium (Jg Ca/mm3) and phosphorous (Jg P/mm3) present in enamel was also determined. Data obtained from %RSM and HZ were submitted to Analysis of Variance and Tukey’s test. Data from fluoride, calcium and phosphorous concentration were submitted to Kruskal-Wallis test. Significance level was set at 5%. All variables were also evaluated by regression analysis and adjusted according to the tendency. The groups with materials containing fluoride and/or ACP presented a higher remineralizing capacity (%RSM and HZ) than the Control group. The group with material containing only ACP showed a better or similar result compared to the other groups. The association between ACP and fluoride did not show a greater efficacy. For %RSM, the 150-Jm distance showed a higher remineralization of the artificially induced carious lesions compared to the 600-Jm distance. The concentrations of fluoride, calcium and phosphorous present in enamel varied according to the group.

Books on the topic "Calcul in situ":

1

Walz, Bernd. Calcium-sequestering cell organelles: In situ localization, morphological and functional characterization. Stuttgart: G. Fischer, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Practices, LLC Best. Managing world-class call centers: Site visit findings. Chapel Hill, NC: Best Practices, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Costenoble, Steven, and Stefan Waner. Applied Calculus (with vMentor Applied Mathematics 2-Semester, Premium Web Site Printed Access Card). 4th ed. Brooks Cole, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Waltz, Berne. Calcium-Sequestering Cell Organelles: In Situ Localization Morphological and Functional Characterization (Pro in Histochem & Cytochem V 20 N 2). Lubrecht & Cramer, Limited, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Faires, J. Douglas, and James DeFranza. Precalculus (with ThomsonNOW, Personal Tutor with SMARTHINKING, SBC Web Site Printed Access Card). 4th ed. Brooks Cole, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Correlation between muscle relaxation and sarcoplasmic reticulum Cap2+s-ATPase during fatigue: An in-situ model. 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Correlation between muscle relaxation and sarcoplasmic reticulum Ca²⁺-ATPase during fatigue: An in-situ model. 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Correlation between muscle relaxation and sarcoplasmic reticulum Ca²⁺-ATPase during fatigue: An in-situ model. 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

The effect of increased muscle temperature on sarcoplasmic reticulum CA²⁺-ATPase function: An in situ rat model. 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

The effect of increased muscle temperature on sarcoplasmic reticulum CA²⁺-ATPase function: An in situ rat model. 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Calcul in situ":

1

Kirberger, Michael, and Jenny J. Yang. "Calcium-Binding Protein Site Types." In Encyclopedia of Metalloproteins, 511–21. New York, NY: Springer New York, 2013. http://dx.doi.org/10.1007/978-1-4614-1533-6_35.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Hammarberg, Tove, Patrick Provost, Konda Veera Reddy, Bengt Persson, and Olof Rådmark. "Calcium Binding Site of 5-Lipoxygenase." In Advances in Prostaglandin and Leukotriene Research, 17–20. Dordrecht: Springer Netherlands, 2001. http://dx.doi.org/10.1007/978-94-015-9721-0_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Adelstein, Robert S., Michael A. Beaven, A. Resai Bengur, Sachiyo Kawamoto, Russell I. Ludowyke, Itzhak Peleg, and James R. Sellers. "In Situ Phosphorylation of Human Platelet and Rat Basophilic Leukemia Cell (RBL-2H3) Myosin Heavy Chain and Light Chain." In Calcium Protein Signaling, 289–97. Boston, MA: Springer US, 1989. http://dx.doi.org/10.1007/978-1-4684-5679-0_32.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Eisenman, George, and Osvaldo Alvarez. "Structure and Selectivity of Ca-Binding Sites in Proteins: The 5-Fold Site in an Icosahedral Virus." In Calcium Transport and Intracellular Calcium Homeostasis, 283–99. Berlin, Heidelberg: Springer Berlin Heidelberg, 1990. http://dx.doi.org/10.1007/978-3-642-83977-1_27.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Hariss, R. Adron. "Neuronal Calcium as a Site of Action for Depressant Drugs." In Calcium in Biological Systems, 215–19. Boston, MA: Springer US, 1985. http://dx.doi.org/10.1007/978-1-4613-2377-8_25.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Andrejauskas, Elisabeth, Rainer Hertel, and Dieter Marmé. "A Calcium Antagonist Binding Site in Plants." In Molecular and Cellular Aspects of Calcium in Plant Development, 419. Boston, MA: Springer US, 1986. http://dx.doi.org/10.1007/978-1-4613-2177-4_88.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Wöhr, M., M. Weber, R. D. Huber, and D. Frohneberg. "In Situ Treatment of Ureteral Calculi with Extracorporeal Shockwave Lithotripsy — Still Feasible?" In Urolithiasis 2, 537. Boston, MA: Springer US, 1994. http://dx.doi.org/10.1007/978-1-4615-2556-1_208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kempe, S., and J. Kaźmierczak. "Calcium Carbonate Supersaturation and the Formation of in situ Calcified Stromatolites." In Facets of Modern Biogeochemistry, 255–78. Berlin, Heidelberg: Springer Berlin Heidelberg, 1990. http://dx.doi.org/10.1007/978-3-642-73978-1_21.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Grosmaitre, Xavier, and Minghong Ma. "Odor-Induced Electrical and Calcium Signals from Olfactory Sensory Neurons In Situ." In Methods in Molecular Biology, 147–55. New York, NY: Springer New York, 2018. http://dx.doi.org/10.1007/978-1-4939-8609-5_12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Vyas, Nand K., Meenakshi N. Vyas, and Florante A. Quiocho. "Coordination and Stability of Calcium-Binding Site: D-Galactose/D-Glucose-Binding Protein of Bacterial Active Transport and Chemotaxis System." In Novel Calcium-Binding Proteins, 403–23. Berlin, Heidelberg: Springer Berlin Heidelberg, 1991. http://dx.doi.org/10.1007/978-3-642-76150-8_23.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Calcul in situ":

1

Moganti, Manasa, and Shivakumar H.N. "Title: Oral raft forming in situ gelling system for site specific delivery of calcium." In The 1st International Electronic Conference on Pharmaceutics. Basel, Switzerland: MDPI, 2020. http://dx.doi.org/10.3390/iecp2020-08644.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Martin, Hannah, Joshua Choe, Iris Baurceanu, and William Murphy. "1127 Calcium phosphate biomaterials enhance immunotherapeutic mRNA delivery in melanoma." In SITC 37th Annual Meeting (SITC 2022) Abstracts. BMJ Publishing Group Ltd, 2022. http://dx.doi.org/10.1136/jitc-2022-sitc2022.1127.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Middya, Asif Iqbal, and Sarbani Roy. "Predicting Missing Value for Ozone Data Based on Optimal Site-Selection Strategy." In 2022 IEEE Calcutta Conference (CALCON). IEEE, 2022. http://dx.doi.org/10.1109/calcon56258.2022.10060138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Linzmeier, Benjamin, Noriko T. Kita, Kouki Kitajima, Meagan E. Ankney, Andrew Jacobson, and John W. Valley. "ADVANCING IN-SITU MICROANALYTICAL CALCIUM ISOTOPE GEOCHEMISTRY BY SIMS." In GSA Connects 2023 Meeting in Pittsburgh, Pennsylvania. Geological Society of America, 2023. http://dx.doi.org/10.1130/abs/2023am-395132.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Garman, Andrew R., Arthur A. Boni, John P. Campbell, Girard A. Simons, and Stephen A. Johnson. "Sulfur/Alkali/Calcium Oxide Sorbent Interaction in Pressurized Coal Combustors." In 1985 Joint Power Generation Conference: GT Papers. American Society of Mechanical Engineers, 1985. http://dx.doi.org/10.1115/85-jpgc-gt-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Modeling and bench-scale experiments have been performed related to the capture of fuel-bound sulfur by calcium-based sorbents injected into pressurized coal combustors. Sorbent types tested include two limestones, a dolomite, a slaked lime, and a pressure-hydrated dolomite, with and without several sodium-based mineral promoters present. Sulfur capture data have been obtained at pressures up to 10 atm. These data have been incorporated into the porous sorbent model of Simons and Garman (6). Modeling of lean turbine combustors indicates that in-situ injection of pressure-hydrated sorbents should remove greater than 50 percent of the SO2 at 10 atm and 0.5 sec residence time. Furthermore the presence of alkali minerals in the coal can enhance the intrinsic reactivity by a factor of two or more. Conveniently, the calcium sorbent can serve as a site for alkali condensation and removal.
6

Fuenmayor, Mac, Diego Orozco, Hollman Nieto, Javier Alexander Urdaneta, Alberto Gomez, Lance Brothers, and Herman Camilo Pedrosa. "Long-Term Calcium Phosphate Cement for In-Situ Combustion Project." In SPE Heavy Oil Conference-Canada. Society of Petroleum Engineers, 2014. http://dx.doi.org/10.2118/170016-ms.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Zhou, Yilu, Lauren Resutek, Liyun Wang, and X. Lucas Lu. "In Situ Calcium Signaling of Chondrocytes Under Non-Serum and Serum Culture." In ASME 2013 Summer Bioengineering Conference. American Society of Mechanical Engineers, 2013. http://dx.doi.org/10.1115/sbc2013-14624.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Chemically defined serum-free medium has been shown to maintain the mechanical properties of cartilage allografts better than serum supplemented medium during long-term in vitro culture [1]. Little is known about this beneficial mechanism at a cellular level. Intracellular calcium ([Ca2+]i) signaling is one of the earliest responses in chondrocytes under mechanical stimulation [2]. It was recently found that calcium signaling is involved in the regulation of chondrocyte morphology changes and its short-term anabolic and catabolic responses under mechanical stimulation [3]. In this study we hypothesized that the beneficial mechanisms of serum-free culture could be indicated by the spatiotemporal features of [Ca2+]i signaling of chondrocytes in situ. We aimed to: (i) compare the in situ spontaneous [Ca2+]i responses of chondrocytes cultured in medium with and without serum; (ii) investigate the correlation between the [Ca2+]i responses of chondrocytes and the biomechanical properties of cartilage explants.
8

Treto, Victoria, Nico Perdrial, Alexandrea Rice, Grace Smith, Justin Richardson, and Anthony D'Amato. "IN-SITU WEATHERING OF CALCIUM-BEARING MINERALS IN UNEVEN-AGED SILVICULTURAL SYSTEMS." In GSA Connects 2022 meeting in Denver, Colorado. Geological Society of America, 2022. http://dx.doi.org/10.1130/abs/2022am-376329.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Liao, Wen-sheng, Li-min Wang, Yi-xuan Yao, Guo-ping Jiang, Hai-jun Zhao, and Xin Huang. "Acid Stimulation Used in In-Situ Leaching Uranium." In 18th International Conference on Nuclear Engineering. ASMEDC, 2010. http://dx.doi.org/10.1115/icone18-29066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Acidization was studied on a uranium sandstone deposit in Inner Mongolia with low–permeability and heavy calcium cementation. Acid dissolving test indicates that hydrochloric acid, formic acid and mud acid can easily dissolve formation minerals. With proper volumes and concentrations of acids used, the risk of precipitation of reaction products could be minimized. Core flow acidizing trial shows that the acidic fluid systems of hydrochloride acid, formic acid or acetic acid can significantly improve the core permeability. The average permeability has increased by 763 percent for the above three systems. But mud acid didn’t increase the core permeability; on the contrary, it caused formation damage, and led to lowering permeability. In the pilot test, the injection rate has improved by 118 percent for 6 wells. The acid treatment results indicate that a significant production enhancement of wellfields can be achieved by acid stimulation.
10

Foss, Dyan L., and Briant L. Charboneau. "Groundwater Remediation of Hexavalent Chromium Along the Columbia River at the Hanford Site in Washington State, USA." In ASME 2011 14th International Conference on Environmental Remediation and Radioactive Waste Management. ASMEDC, 2011. http://dx.doi.org/10.1115/icem2011-59030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The U.S. Department of Energy Hanford Site, formerly used for nuclear weapons production, encompasses 1500 square kilometers in southeast Washington State along the Columbia River. A principle threat to the river are the groundwater plumes of hexavalent chromium (Cr(VI)), which affect approximately 9.8 square kilometers, and 4.1 kilometers of shoreline. Cleanup goals are to stop Cr(VI) from entering the river by the end of 2012 and remediate the groundwater plumes to the drinking water standards by the end of 2020. Five groundwater pump-and-treat systems are currently in operation for the remediation of Cr(VI). Since the 1990s, over 13.6 billion L of groundwater have been treated; over 1,435 kg of Cr(VI) have been removed. This paper describes the unique aspects of the site, its environmental setting, hydrogeology, groundwater-river interface, riverine hydraulic effects, remediation activities completed to date, a summary of the current and proposed pump-and-treat operations, the in situ redox manipulation barrier, and the effectiveness of passive barriers, resins, and treatability testing results of calcium polysulfide, biostimulation, and electrocoagulation, currently under evaluation.

Reports on the topic "Calcul in situ":

1

Langton, C., and D. Stefanko. BLENDED CALCIUM ALUMINATE-CALCIUM SULFATE CEMENT-BASED GROUT FOR P-REACTOR VESSEL IN-SITU DECOMMISSIONING. Office of Scientific and Technical Information (OSTI), March 2011. http://dx.doi.org/10.2172/1011327.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Lubbers, Anthony. Building Distance Calcs - Shortest Distance From B239 to the site boundary. Office of Scientific and Technical Information (OSTI), April 2020. http://dx.doi.org/10.2172/1615577.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Vermeul, Vincent R., Brad G. Fritz, Jonathan S. Fruchter, James E. Szecsody, and Mark D. Williams. 100-NR-2 Apatite Treatability Test: High-Concentration Calcium-Citrate-Phosphate Solution Injection for In Situ Strontium-90 Immobilization. Office of Scientific and Technical Information (OSTI), September 2010. http://dx.doi.org/10.2172/1010480.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Katta, S., P. J. Shires, W. M. Campbell, and G. Henningsen. Studies of in-situ calcium based sorbents in advanced pressurized coal conversion systems. Final report, June 1991--October 1994. Office of Scientific and Technical Information (OSTI), October 1994. http://dx.doi.org/10.2172/10196509.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Williams, Mark D., Brad G. Fritz, Donaldo P. Mendoza, Mark L. Rockhold, Paul D. Thorne, YuLong Xie, Bruce N. Bjornstad, et al. Interim Report: 100-NR-2 Apatite Treatability Test: Low Concentration Calcium Citrate-Phosphate Solution Injection for In Situ Strontium-90 Immobilization. Office of Scientific and Technical Information (OSTI), July 2008. http://dx.doi.org/10.2172/969183.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Vermeul, Vincent R., Brad G. Fritz, Jonathan S. Fruchter, James E. Szecsody, and Mark D. Williams. 100-NR-2 Apatite Treatability Test FY09 Status: High Concentration Calcium-Citrate-Phosphate Solution Injection for In Situ Strontium-90 Immobilization. Office of Scientific and Technical Information (OSTI), December 2009. http://dx.doi.org/10.2172/969621.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Henderson, Timothy. Sagamore Hill National Historic Site: Geologic resources inventory report. National Park Service, 2024. http://dx.doi.org/10.36967/2302828.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Geologic Resources Inventory reports provide information and resources to help park managers make decisions for visitor safety, planning and protection of infrastructure, and preservation of natural and cultural resources. Information in GRI reports may also be useful for interpretation. This report synthesizes discussions from a scoping meeting held in 2010 and a follow-up conference call in 2022. Chapters of this report discuss the geologic heritage, geologic features and processes, geologic history, and geologic resource management issues of Sagamore Hill National Historic Site. Guidance for resource management and information about the previously completed GRI GIS data and poster (separate products) is also provided.
8

Barthelmes, Michael. Fort Larned National Historic Site: Geologic resources inventory report. National Park Service, 2024. http://dx.doi.org/10.36967/2303274.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Geologic Resources Inventory reports provide information and resources to help park managers make decisions for visitor safety, planning and protection of infrastructure, and preservation of natural and cultural resources. Information in GRI reports may also be useful for interpretation. This report synthesizes discussions from a scoping meeting held in 2008 and a follow-up conference call in 2021. Chapters of this report discuss the geologic heritage, geologic features and processes, geologic history, and geologic resource management issues of Fort Larned National Historic Site. Guidance for resource management and information about the previously completed GRI GIS data and poster (separate products) is also provided.
9

KellerLynn, Katie. John Muir National Historic Site: Geologic resources inventory report. National Park Service, December 2021. http://dx.doi.org/10.36967/nrr-2288497.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Geologic Resources Inventory reports provide information and resources to help park managers make decisions for visitor safety, planning and protection of infrastructure, and preservation of natural and cultural resources. Information in GRI reports may also be useful for interpretation. This report synthesizes discussions from a scoping meeting held in 2007 and a follow-up conference call in 2020. Chapters of this report discuss the geologic heritage, geologic features and processes, and geologic resource management issues of John Muir National Historic Site. Guidance for resource management and information about the previously completed GRI map data is also provided. A GRI map poster (separate product) illustrate the GRI map data. Geologic features, processes, and resource management issues identified include the Great Valley sequence, an unconformity, the Martinez Formation, the San Andreas Fault, an anticline, fluvial features and processes, erosion, flooding, slope movements, earthquakes, climate change, and paleontological resources.
10

DiSabatino, A. EIS Data Call Report: Plutonium immobilization plant using ceramic in new facilities at the Savannah River Site. Office of Scientific and Technical Information (OSTI), June 1998. http://dx.doi.org/10.2172/675093.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography