Academic literature on the topic 'Modélisation RSM'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modélisation RSM.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modélisation RSM"

1

Merabet, Smail, Abdelkrim Bouzaza, Mohamed Bouhelassa, and Dominique Wolbert. "Modélisation et optimisation de la photodégradation du 4-méthylphénol dans un réacteur à recirculation en présence d’UV/ZnO." Revue des sciences de l'eau 22, no. 4 (October 22, 2009): 565–73. http://dx.doi.org/10.7202/038331ar.

Full text
Abstract:
Résumé L’étude de la photodégradation du 4-méthylphénol a été menée sur un pilote à recirculation. Cette molécule a été prise comme composé modèle pour le traitement des effluents de l’industrie avicole. Ce travail a consisté en l’optimisation et la modélisation de l’élimination du 4-méthylphénol par photocatalyse en présence de ZnO. L’utilisation des plans d’expériences, et en particulier de la méthodologie de surface de réponse (RSM) et un plan central composite (CCD), a permis la détermination de l’influence des effets simultanés et de l’interaction des paramètres opératoires sur le rendement de la photodégradation. Les paramètres étudiés sont la concentration initiale en 4-méthylphénol, la concentration en catalyseur et le débit de recirculation de la solution. Les résultats montrent que l’application de la RSM permet de décrire d’une manière correcte l’influence de ces trois paramètres expérimentaux sur l’efficacité du traitement. Les valeurs optimales des paramètres donnant un rendement maximal (100 %) ont pu être déterminées. Les modèles de second ordre obtenus, pour le rendement de dégradation et pour l’abattement de DCO, ont été validés en utilisant différentes approches statistiques. L’utilisation de la méthode ANOVA a montré que les modèles sont hautement significatifs et en bonne adéquation avec les résultats expérimentaux.
APA, Harvard, Vancouver, ISO, and other styles
2

Loye, Nathalie. "2010, odyssée des modèles de classification diagnostique (MCD)." Mesure et évaluation en éducation 33, no. 3 (May 7, 2014): 75–98. http://dx.doi.org/10.7202/1024892ar.

Full text
Abstract:
Cet article vise à définir les modèles de classification diagnostique (MCD) et à déterminer leur place relativement à d’autres modélisations existantes comme la TRI. Les modèles RSM, DINA et NC-RUM sont exposés plus en détail. Pour terminer, une analyse critique débouche sur des pistes de recherches théoriques et empiriques.
APA, Harvard, Vancouver, ISO, and other styles
3

Drouen, L., J. F. Charpentier, F. Hauville, JA Astolfi, E. Semail, and S. Clenet. "Modélisation couplée multi physique d'une hydrolienne RIM-DRIVEN." La Houille Blanche, no. 1 (February 2015): 14–21. http://dx.doi.org/10.1051/lhb/2015002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Engelhard, Kristina. "The Regulative Use of Transcendental Ideas in Kant: Metaphysics as Modelling." Revue de métaphysique et de morale N° 118, no. 2 (June 5, 2023): 175–94. http://dx.doi.org/10.3917/rmm.232.0175.

Full text
Abstract:
La critique de la métaphysique dans la Dialectique transcendantale de la Critique de la raison pure débouche sur la doctrine de l’usage régulateur des idées transcendantales de la raison pure. La théorie de l’usage régulateur de ces idées est relativement abstraite et demande à être clarifiée. Kant affirme que ces idées ont un usage dans les sciences empiriques. Cependant il ne spécifie pas quel usage les sciences peuvent faire de ces idées. Dans cet article je compare les caractéristiques des idées transcendantales aux caractéristiques des modèles scientifiques. Ainsi la thèse principale de mon article est que la théorie kantienne de l’usage régulateur des idées est comparable à la modélisation en science. C’est ce que je nomme « l’approche modélisatrice des idées transcendantales chez Kant ». D’après cette interprétation, on trouve chez ce dernier une conception relativement élaborée de la modélisation que l’on peut comprendre comme signifiant que la métaphysique fournit aux sciences les formes les plus universelles de modèles qui peuvent être spécifiés pour des objectifs particuliers par les sciences.
APA, Harvard, Vancouver, ISO, and other styles
5

Mornet, Chantal. "Essai de modélisation du concept de satisfaction." Recherche en soins infirmiers N° 66, no. 3 (September 1, 2001): 23–66. http://dx.doi.org/10.3917/rsi.066.0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

LOUÂPRE, Muriel. "Une fiction non euclidienne. Vérité et modélisation en régime naturaliste." Romantisme 138, no. 4 (2007): 89. http://dx.doi.org/10.3917/rom.138.0089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Morency, Marc-André, and Jeanne Simard. "La démarche décisionnelle du gestionnaire en situation complexe : une modélisation." La Revue des Sciences de Gestion 271, no. 1 (2015): 29. http://dx.doi.org/10.3917/rsg.271.0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Sahut, Jean-Michel, Léopold Djoutsa Wamba, and Lubica Hikkerova. "La performance environnementale : déterminants et impact sur la performance financière des entreprises européennes cotées." La Revue des Sciences de Gestion N° 311, no. 5 (January 31, 2022): 79–90. http://dx.doi.org/10.3917/rsg.311.0083.

Full text
Abstract:
L’objectif de ce papier est de mieux comprendre la politique environnementale de l’entreprise en identifiant le rôle joué par la capacité financière et la gouvernance d’entreprise sur le résultat des efforts environnementaux consentis par l’entreprise et l’impact de ces efforts sur la performance financière. En utilisant la modélisation structurelle à variable latente par l’approche PLS (Partial Least Squares) sur les données d’un échantillon de 351 entreprises européennes cotées sur la période 2007-2015 issues d’ASSET4-ESG, il ressort des résultats d’une part que la capacité financière et la gouvernance sont des facteurs qui déterminent significativement la performance environnementale, et d’autre part que cette dernière augmente la performance financière avec un effet plus important pour la performance comptable.
APA, Harvard, Vancouver, ISO, and other styles
9

Hentati, Ikhlas, Nihel Louati, Nizar Ghamgui, and Mohamed Karim Kefi. "Hindrances to the development of auditors’ ethical judgment in Tunisian family businesses." La Revue des Sciences de Gestion N° 325-326, no. 6 (May 6, 2024): 111–24. http://dx.doi.org/10.3917/rsg.325.0111.

Full text
Abstract:
L’objectif principal de cette recherche est de comprendre comment les auditeurs qui travaillent dans des entreprises familiales en Tunisie luttent contre les pratiques comptables créatives ainsi que les obstacles qui les empêchent d’utiliser leur jugement éthique pour réduire ces pratiques déviantes. Nous avons mené une étude quantitative à travers un questionnaire distribué à 572 auditeurs tunisiens. Nous nous sommes appuyés sur la modélisation par équations structurelles (SEM) afin de tester les hypothèses de cette recherche. Les résultats montrent que le jugement éthique n’est pas utilisé par les auditeurs pour atténuer les pratiques comptables créatives dans les entreprises familiales en Tunisie. Ces résultats pourraient être pertinents sur le plan pratique car ils soulignent l’importance d’une approche systématique pour améliorer les programmes destinés aux futurs auditeurs et atteindre l’intérêt public général.
APA, Harvard, Vancouver, ISO, and other styles
10

Bourbon, Sébastien. "L’exploitation de la rente cognitive par les organisations." La Revue des Sciences de Gestion N° 315-316, no. 3 (October 6, 2022): 121–28. http://dx.doi.org/10.3917/rsg.315.0123.

Full text
Abstract:
La rente cognitive apporte un avantage concurrentiel aux entreprises, à condition de savoir l’exploiter de façon optimale. En effet, elles parviennent difficilement à le faire en raison de leur méthodologie de valorisation des connaissances dans leur organisation. D’un côté, les méthodes issues de modélisations théoriques souffrent de leur caractère trop général, et donc abstrait. D’un autre côté, les techniques de valorisation des connaissances à caractère empirique minorent plusieurs pans de la rente cognitive. Cet article propose alors une méthodologie d’exploitation plus optimale de la rente cognitive des organisations basée sur une approche abductive. Elle permet un dialogue constant entre la cohérence du modèle théorique et l’opérabilité des solutions empiriques.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Modélisation RSM"

1

Pashaei, Fakhri Kambiz. "Modélisation des composants d'optique intégrée par la méthode modale (la RSM)." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0147.

Full text
Abstract:
Nous etudions la modelisation des composants d'optique integree par la methode modale. La methode modale est la projection du champ electrique et magnetique sur les modes propres de la structure. La methode modale, nous fourni une meilleure comprehension des effets de rayonnements indispensable a la realisation des circuits d'optique performants. Nous presentons les autres methodes existantes et nous les comparons avec la methode modale. Nous etudions la modelisation d'une discontinuite. Lorsque qu'une onde est incidente sur une discontinuite, une partie de l'onde est reflechie et une autre partie est transmise. Ainsi une partie de la puissance de l'onde incidente est couplee aux modes progressifs et une autre partie aux modes regressifs. Ces modes progressifs et regressifs comprennent non seulement les modes guides mais aussi les modes rayonnes et les modes evanescents. La perte de puissance dans les guides d'onde optique est due aux modes rayonnes. Les modes rayonnes transportent de la puissance active mais les modes evanescents transportent de la puissance reactive. Ces modes sont importants pour la representation fine du champ pres de la discontinuite. Pour la modelisation d'une discontinuite, nous presentons deux methodes. La premiere methode consiste, a projeter les modes progressifs et les modes regressifs sous un systeme d'equation lineaire matricielle. En inversant ce systeme matriciel, on retrouve la puissance reflechie et transmise. Nous presentons ensuite une nouvelle technique pour l'analyse des discontinuites, cette methode nous permet d'eviter les matrices de grosse taille et en meme temps la vitesse et la precision de calcul sont grande. Nous appliquons cette methode originale aux differentes structures et nous comparons les resultats ainsi obtenus avec les resultats obtenus en utilisants les coefficients de reflexion de fresnel. Nous nous interessons ensuite aux reseaux periodiques. Les reseaux periodiques sont important en optique integree pour la realisation des differents composants tels que les filtres et les lasers dfb. Pour la modelisation nous utilisons deux methodes, l'une matricielle et l'autre en faisant appel a des aller-retours multiples. Nous presentons les resultats ainsi obtenus.
APA, Harvard, Vancouver, ISO, and other styles
2

Deveaux, Benjamin. "Analyse et contrôle de l'écoulement de jeu d'une aube fixe isolée." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE009.

Full text
Abstract:
L’objectif de cette ´étude est de d´écrire en détail l´écoulement de jeu afin d’en ´évaluer la sensibilité´e auxparamètres de conception ainsi que la r´réceptivité´e `a des dispositifs de contrôle par injection d’air au carter. Pourcela, on considère une géométrie simplifiée qui est constituée d’une aube fixe isolée, placée perpendiculairement `aune plaque plane représentant le carter. L’analyse de cette configuration simplifiée s’appuie sur la complémentarité´edes mesures en soufflerie et simulations numériques. La taille du jeu est le paramètre principal qui affectel’écoulement de jeu. L’épaisseur de la couche limite incidente au carter et le chargement de l’aube ont ´égalementun effet visible sur la position latérale du tourbillon de jeu. Le calcul du taux de création d’entropie local a permisd’identifier plusieurs zones de pertes dans l’écoulement. Ensuite, les pertes de pression totale ont été décomposéesen la somme d’un terme li´e au tourbillon et d’un autre li´e au déficit de vitesse longitudinale. Ce terme li´e autourbillon est responsable de l’augmentation des pertes de pression totale avec la taille du jeu. Enfin, un modèleempirique a été développé pour estimer la circulation du tourbillon de jeu ainsi que les pertes de pression totaleen fonction de la taille du jeu. Un système d’injection continue d’air dans le jeu a été évalué, les jets étant orientésperpendiculairement au carter. D’une part, cette stratégie de contrôle permet de rapprocher le tourbillon de jeude l’aube, ce qui pourrait permettre d’augmenter le domaine de fonctionnement stable d’un compresseur. D’autrepart, le champ de vorticité axiale dans le tourbillon de jeu devient plus homogène, ce qui serait intéressant pourlimiter les interactions rotor-stator. Cependant cette approche tend `a augmenter les pertes de pression totale etperd en efficacité avec un élargissement du jeu
This study aims at providing a detailed description of the tip-leakage flow, in order to analyzeits sensitivity to design parameters and to control devices based on air injection from the casing. The setup iscomposed of a single blade, set orthogonal to a flat plate that plays the role of the casing wall. The analysis isbased on experiments conducted in a low-speed wind tunnel that are complemented by CFD calculations. Thetip-leakage flow is primarily driven by the gap height. The incoming boundary layer thickness and the bladeloading also have a notable effect on the lateral position of the tip-leakage vortex. The distribution of local entropycreation rate has been used to identify areas of losses in the flow. Moreover, the total pressure losses have beendecomposed in two terms identified as a vortex loss and a wake loss. This vortex loss drives the increase of totalpressure losses with the gap height. An empirical model has been developped to predict the evolution of thetip-leakage vortex circulation and of the total pressure losses with respect to the gap height. A steady injection ofair from the casing has been evaluated, using normal jets in the gap. With this control strategy, the tip-leakagevortex tends to be closer to the blade, which could lead to an extension of the range of stable operation for axialcompressors. In addition to that, the control device smoothes out the axial vorticity field in the tip-leakage vortex,which could be interesting to reduce rotor-stator interactions. However, this control strategy leads to higher totalpressure losses and is less effective with larger gaps
APA, Harvard, Vancouver, ISO, and other styles
3

Gao, Chan. "Devenir des substances per et poly-fluoroalkylées (PFAS) dans les estuaires : focus sur les interactions avec les sédiments en suspension." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0409.

Full text
Abstract:
Les substances per et poly-fluoroalkylées (PFAS) constituent un vaste groupe hétérogène de micropolluants émergents. Du fait de leur structure physico-chimique très stable, les PFAS sont persistantes et largement répandues dans l'environnement et posent de nombreux problèmes environnementaux. Ces dernières années, le devenir des PFAS a fait l'objet d'une attention croissante. Dans le cycle des PFAS, l'air, l'eau, le sol et les sédiments sont différents compartiments impliqués. À l'exutoire des grands bassins versants et à l’interface terre-mer, les estuaires sont considérés comme la principale voie d’entrée des PFAS vers le milieu océanique, puits ultime des PFAS. Les conditions estuariennes complexes affectent le comportement des PFAS dans les sédiments et déterminent le sort final des PFAS. Les estuaires jouent par ailleurs un rôle écologique majeur et sont soumis à une forte pression chimique, générant des risques environnementaux. Il est donc important d'étudier le devenir des PFAS dans les estuaires.Les sédiments estuariens constituent un réservoir important pour les PFAS, où la sorption et la désorption se produisent et contrôlent la distribution des PFAS. Les conditions géochimiques jouent un rôle essentiel dans ce processus. D'une part, les flux fluviaux apportent d'énormes quantités de particules en suspension qui absorbent les PFAS et se déposent finalement dans les sédiments estuariens. D'autre part, au cours des cycles de marée, les particules sont remises en suspension, transportées et remises en place, désorbant ou réabsorbant les PFAS. La distribution des PFAS entre les particules et l'eau est la clé de l'étude du devenir des PFAS dans les estuaires. Les conditions contrastées de salinité et de turbidité des estuaires peuvent influencer la distribution des PFAS entre les particules et l'eau en facilitant ou en entravant la sorption/désorption, ce qui complique l'interaction entre les sédiments et l'eau pour les PFAS. Il est donc très important de réaliser des études approfondies sur la distribution des PFAS entre les particules et l'eau dans les conditions estuariennes.Ces travaux sont divisés en deux parties : 1) détermination des cinétiques d'adsorption et de désorption des PFAS seuls ou mélange (compétition) sur un substrat modèle, la kaolinite et 2) étudier l'influence de la salinité et de la turbidité sur la distribution particules-eau des PFAS en conditions estuariennes. Ces travaux fournissent des éléments importants pour paramétrer les modèles de devenir des PFAS et estimer les bilans de masse à l'interface terre-mer
To understand the fate of legacy and emerging PFAS at the land-sea interface, this work focused on the interactions with estuarine sediments. More precisely, we mainly studied the influence of co-existing PFAS, salinity (S) and suspended particulate matter (SPM) on the sediment-water partitioning of PFAS. First, to investigate the effect of coexisting PFAS on their adsorption and desorption, competitive adsorption and desorption experiments were conducted using single and mixed PFAS solutions at low concentrations, using kaolinite as model sorbent. Selected PFAS include eight perfluoroalkyl carboxylates (PFCAs), two perfluoroalkyl sulfonic acids (PFSAs) and one zwitterionic PFAS (8:2 fluorotelomer sulfonamide alkylbetaine (8:2 FTAB)), which were studied in three single-solute solutions and two mixture solutions. A pseudo-second-order kinetic model was used to fit in the adsorption and desorption kinetics data correctly. Their sorption and desorption on kaolinite were quite fast, with equilibrium reached within 2h. Sorption processes appeared to be influenced by the PFAS molecular structure: sorption increased and desorption decreased with increasing fluoroalkyl chain length, characterized by the increase of log Kd. Besides, PFSAs (i.e, PFHxS and PFOS) had greater sorption and weaker desorption than PFCAs (i.e, PFHpA and PFNA) with similar fluoroalkyl chain. The zwitterionic 8:2 FTAB showed stronger sorption and smaller desorption than anions (i.e., PFOS or PFNA) with a similar fluoroalkyl chain. Sorption and desorption data obtained for single and multi-solute experiments indicated that there was no significant statistical difference between such conditions. Thus, the influence of competitive adsorption and desorption was negligible at low concentrations. To study the influence of salinity and SPM on the sorption of PFAS, we used a sediment sample collected in the fluvial sector of the Garonne-Gironde system. We performed sorption kinetics and sorption isotherms tests for the same PFAS, under 35 combination of salinity and turbidity. Based on response surface methodology (RSM) modelling approach, results indicated the sorption kinetics of PFAS onto sediment can be described by pseudo-second-order model and 24h is the equilibrium time for targeted PFAS. Besides, PFAS sorption can be well fitted by linear model and Freundlich model, the linear sorption range for PFAS studied was in the range of 0.12 to 1.31 nM (equilibrium concentration). Moreover, based on RSM modelling approach, we found that Kd varied between 0.62 and 55271 L/kg and that both S and SPM were significant factors, i.e. the Kd of PFAS was positively related to S due to salting-out effect while it was negatively related to SPM concentration. Moreover, SPM had a stronger effect than salinity (S) for PFHxA and PFHpA, whereas S was the more dominant factor for most other compounds. For PFUnDA and 8:2 FTAB, S and SPM displayed nearly equivalent weights as drivers of Kd. In addition, a negative interaction between both factors was observed, i.e. if SPM increases, the effect of S on Kd is weaker. Overall, this work provides original results to model the sorption of legacy and emerging PFAS on estuarine sediments based on RSM modelling approach. It provides a new perspective to investigate the fate of PFAS at the land-sea interface
APA, Harvard, Vancouver, ISO, and other styles
4

Hermitte, Bruna. "Etude et modélisation du RIM dans le combustible des crayons REP." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11075.

Full text
Abstract:
Le phenomene de rim a ete mis en evidence voici quinze ans lors de l'examen des premiers crayons irradies a plus de 45gwj/tu (taux de combustion moyen sur la pastille) dans des reacteurs experimentaux. Une observation detaillee des resultats obtenus a montre une progressive degradation de la structure granulaire en peripherie de pastille, conjointement a un accroissement de la porosite dans cette zone. Dans ce travail, on propose un mecanisme de formation et de developpement du rim aux forts taux de combustion. Considerant le role de la porosite dans l'evolution des proprietes physiques du combustible, la premiere etape a ete de simuler le comportement des gaz de fission dans la fraction de combustible touchee par le rim. Dans le modele propose, l'accroissement de la population de bulles de gaz est relie a la fraction volumique de combustible restructure. Ce modele permet d'evaluer la fraction volumique de pores dans le combustible, la taille moyenne de ces pores et la repartition volumique des gaz de fission entre les bulles et la matrice de combustible
APA, Harvard, Vancouver, ISO, and other styles
5

De, Thier Pierre. "Adhésion des IgG sur une surface hydrophobe : Théorie, modélisations et application à l'ELISA." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0038.

Full text
Abstract:
Les ELISA (Enzyme-Linked ImmunoSorbent Assay) sont une des technologies analytiques les plus utilisées dans la recherche et les applications biomédicales. Leur production nécessite la construction de films d’anticorps sur des surfaces constituées le plus souvent de polystyrène. La haute hydrophobie du polystyrène assure une adhésion forte et spontanée des anticorps permettant ainsi d’y construire facilement une monocouche d’anticorps. L’amélioration des ELISA passe certainement par l’amélioration et la compréhension des mécanismes physico-chimiques à l’œuvre lors de l’immobilisation des anticorps sur le polystyrène. Dans ce but, ce travail présente un essai de théorisation appuyé par des simulations numériques et des estimations expérimentales par microscopie à force atomique (AFM) et ELISA. En faisant référence à l’effet hydrophobe, la thermodynamique des processus irréversibles permet premièrement d’expliciter les raisons de l’adhésion des anticorps sur le polystyrène. Deuxièmement, des simulations numériques dans le cadre du modèle des additions séquentielles aléatoires (RSA) montrent la façon dont peuvent se saturer les surfaces en favorisant certaines orientations d’anticorps recherchées dans le cadre de l’ELISA. Finalement, l’amélioration du modèle RSA en un modèle RSA+R tenant compte des changements d’orientations par relaxation des anticorps illustre le lien entre les conditions de dépôt et la structure de la monocouche obtenue. Ces éléments semblent corroborés par l’expérience
ELISA (Enzyme-Linked ImmunoSorbent Assay) are widely used analytical technologies in research and biomedical fields. Their implementation require to build antibodies thin films onto predominantly composed polystyrene surfaces. The high hydrophobicity of polystyrene ensures spontaneous and strong antibodies adhesion allowing to easily build antibodies monolayers. ELISA improvements lie most probably throughout improvements and comprehension of physico-chemical mecanisms on which antibodies immobilization on polystyrene are relied. In this way, our work explains a therozation essay emphasized by numerical modelling and experimental estimations by atomic force microscopy (AFM) and ELISA. Keeping in mind the so-called hydrophobic effect, thermodynamics of irrversible processes allows in a first time explaining reasons of antibodies adhesion on polystyrene. In a second time, numerical modelling in the field of random sequential additions model (RSA) show a way of surfaces saturation involving a strong trend to favor some antibodies orientations expected for ELISA. Finally, a RSA improvement in a RSA+R model taking into account orientational changes by the way of relaxation shows a link between deposition conditions and obtained monolayer structure. Such results seem to be strongly correlated with experimental facts
APA, Harvard, Vancouver, ISO, and other styles
6

Mascarade, Jérémy. "Étude phénoménologique et modélisation d'un réacteur catalytique à membrane pour la valorisation d'eau tritiée." Phd thesis, Toulouse, INPT, 2015. http://oatao.univ-toulouse.fr/14497/1/mascarade.pdf.

Full text
Abstract:
Le tritium est un radioélément produit par fission ternaire ou activation neutronique au sein des réacteurs de fission et utilisé comme combustible dans les machines de fusion (comme, en autres, le JET en Angleterre ou le futur ITER à Cadarache). Des études sont actuellement en cours sur la gestion de cette ressource que ce soit en vue de son utilisation ou de son élimination d’effluents gazeux, liquides ou de déchets. Cette thèse se propose d’étudier la revalorisation du tritium en tant que combustible pour les machines de fusion par le biais d’un Réacteur Catalytique à Membrane (RCM). Celui-ci associe les phénomènes de conversion catalytique de l’eau tritiée, par échange isotopique avec le diprotium selon la réaction générique Q_2 O+H_2⇌H_2 O+Q_2 (Q=H,D ou T), et de perméation sélective, d’une membrane à base de palladium. Ce matériau présente une perméabilité exclusive aux isotopes de l’hydrogène H, D et T par formation respective d’hydrures, deutérures ou tritiures de palladium. Au sein du RCM, ces flux transmembranaires permettent, par retrait des produits de réactions, d’atteindre des taux de conversion plus élevés que dans un réacteur à lit fixe à parois imperméables (loi de Le Chatelier). Au CEA, un banc d’essais utilisant le deutérium comme simulant du tritium a été construit dans l’objectif d’étudier de manière séparée, à l’échelle du laboratoire, ces propriétés de conversion et de perméation ainsi que leur couplage. Grâce au développement d’une méthode permettant l’analyse simultanée des isotopologues de l’eau et du dihydrogène par spectrométrie de masse, il a été montré, d’une part, que le catalyseur à base de nickel utilisé présente une activité suffisante pour que l’état d’équilibre thermodynamique des réactions d’échange isotopique soit atteint très rapidement et d’autre part, que le flux de perméation des isotopologues du dihydrogène suit une loi de Richardson. Des analyses de sensibilités sur les paramètres opératoires montrent que les performances globales du RCM (i.e. facteur de dédeutération) croissent avec la température, la différence de pression transmembranaire, le débit de balayage et le temps de séjour dans le tube, mais passent par un maximum avec la variation de la teneur en vapeur d’eau lourde dans le gaz à traiter. Sur la base de ces observations, un modèle phénoménologique quantifiant les transferts de quantités de mouvement et de matière a été développé. Il rend compte du comportement global observé expérimentalement même si un effort reste à fournir sur la modélisation de la perméation des espèces hétéronucléaires. Grâce aux principes physiques sur lesquels il est basé et aux règles de similitudes existant entre les propriétés physico-chimiques des différents isotopologues (loi de Graham), ce modèle est aisément extrapolable au traitement d’espèces tritiées.
APA, Harvard, Vancouver, ISO, and other styles
7

Kchakech, Badreddine. "Étude de l’influence de l’échauffement subi par un béton sur le risque d’expansions associées à la Réaction Sulfatique Interne." Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1101/document.

Full text
Abstract:
La Réaction Sulfatique Interne (RSI) est une pathologie endogène qui peut toucher les matériaux cimentaires ayant été exposés à des températures supérieures à environ 65°C. Elle est causée par une formation tardive de l'ettringite dans le matériau durci, induisant le développement de pressions de cristallisation et de gonflements importants. Au jeune âge, l'élévation de température peut être due soit à l'exothermie de l'hydratation du ciment, en particulier au cœur des pièces massives, soit à la préfabrication où un échauffement est appliqué au matériau au jeune âge pour accélérer la prise et permettre un décoffrage plus rapide. L'élévation de température sur un béton durci (incendie, stockage de déchets radioactifs, structures stratégiques) représente un autre cas potentiel de développement des expansions induites par la RSI. Lors du développement de cette réaction, on observe la formation de fissures et une dégradation des performances mécaniques nuisant à la capacité portante et aux fonctionnalités en service des structures touchées par cette pathologie. L'objectif de cette recherche est de préciser et quantifier la relation entre l'histoire thermique subie (au jeune âge ou sur béton mature) et la courbe caractérisant le gonflement libre en fonction du temps (potentiel et cinétique de gonflement) afin de compléter les recommandations de prévention (basées le plus souvent sur la limitation de l'élévation de température) et de réparation des structures atteintes de cette pathologie et d'améliorer la prévision de l'état d'une structure endommagée dans le cadre d'un diagnostic. Pour les outils de calcul, tel le module RGIB du code CESAR, qui permettent de recalculer les structures atteintes de cette pathologie, la présente recherche a pour but de valider, améliorer ou élaborer la loi de couplage donnant l'expansion induite par la RSI en fonction de l'histoire thermique, au jeune âge ou lors d'échauffements tardifs. Le programme expérimental s'est focalisé sur la compréhension de l'effet de l'histoire thermique (température et durée d'échauffement) au jeune âge sur le développement des expansions, en étoffant la base de données permettant de valider les modèles de prédiction proposés dans la littérature. Il a également étudié l'effet de différents traitements thermiques tardifs où peu de données sont disponibles dans la littérature. Ces effets ont été étudiés sur des corps d'épreuve en béton potentiellement sujets à la formation différée d'ettringite : des traitements thermiques à plusieurs températures (61, 66, 71, 81, 86°C) et pendant des durées de cure de 1 à 28 jours ont été appliqués. Le suivi massique et dimensionnel des corps d'épreuve a permis d'identifier l'existence d'un effet de pessimum vis-à-vis de la durée de cure. Les caractéristiques des expansions ont été quantifiées et comparées aux histoires thermiques afin d'établir le couplage entre histoire thermique et gonflement. La pertinence du concept « d'énergie utile », associé à l'intégrale de la température en fonction du temps au-dessus d'une valeur seuil correspondant à la déstabilisation de l'ettringite, a été démontrée par la mise en évidence de courbes maîtresses. Une interprétation cohérente des résultats d'expansions (cinétiques et magnitudes) et des effets de la RSI sur les propriétés mécaniques en fonction des différentes histoires thermiques a été proposée, en lien avec une loi de prédiction des expansions
Delayed Ettringite Formation (DEF) is an internal swelling reaction that can affect concretes heated at a temperature higher than about 65°C. This phenomenon is related to a late formation of a normal hydrate (ettringite) of cement inducing crystallization pressure and significant expansions. This late formation of ettringite may affect concretes exposed to high temperatures at early age; it may be the case of precast elements, and massive concrete parts heated due to cement hydration (combination of the exothermic hydration and the low heat transfer conditions). Late in service exposure to high temperatures (fire, radioactive waste depositories and parts of structures of power plant) correspond to another situation that can induce expansion generated by DEF. In most cases, DEF leads to concrete swelling, cracking, decrease of the mechanical properties of the affected materials and thus potential problems in terms of serviceability and bearing capacity of the affected structures. The objectives of this study are to quantify and predict the relation between thermal history and swelling characteristics (magnitude and kinetics) in order to propose recommendations for prevention of DEF (A critical condition for the development of this reaction consists in the temperature increase at early age. Thus, temperature limitation is recommended as one of the most efficient ways to avoid DEF expansions), and for assessment and repair of structures affected by this pathology. For numerical tools, such as RGIB module of the CESAR-LCPC F.E. software, which allow to re-assess the structures affected by this phenomenon, this research aims to validate, or improve, or develop a coupling law giving the expansion induced by DEF depending on a thermal history at early age or on mature concrete. The investigations carried out were focused on the effect of temperature and curing duration of early age heat treatments on the risk of developing expansion. They also included effect of late heat treatments which correspond to scarce data in the literature. The experiments were performed on concrete specimens, using a sulfate, aluminate and alkali-rich cement, aiming to quantify the expansion magnitudes and kinetics due to different thermal histories and to identify the existence of an eventual pessimum effect with respect to the thermal energy, as mentioned in the literature. A number of heat treatments at 61, 66, 71, 81 and 86°C were applied for durations from 1 to 28 days. Monitoring of the specimens dimensions allowed identifying a pessimum effect with respect to the thermal curing duration. The swelling characteristics (magnitude and kinetics) have been quantified, using a mathematical relation, and compared to thermal histories applied to determine a link between thermal history and swelling. The relevance of the concept of ‘effective thermal energy' associated with the integral of the temperature as a function of time beyond a threshold value corresponding to the destabilization of ettringite was demonstrated by the identification of master curves. A consistent interpretation of the results of expansions (kinetics and magnitudes) and effects on the mechanical properties according to different thermal histories, has been proposed in connection with the law for predicting expansions
APA, Harvard, Vancouver, ISO, and other styles
8

Talarowski, David. "Analyse théorique et empirique de la théorie de la recherche d'emploi : un essai de modélisation du Revenu de Solidarité Active." Thesis, Artois, 2011. http://www.theses.fr/2011ARTO0101.

Full text
Abstract:
Cette thèse présente le modèle de recherche d’emploi en partant du modèle élémentaire pour aboutir à un modèle destiné à analyser les mécanismes d’incitation à la reprise d’emploi. Le mécanisme analysé est celui du Revenu de Solidarité Active. La première partie sert à mettre en place les éléments théoriques nécessaires aux modèles de la seconde partie. On part du modèle élémentaire en élargissant le débat aux modèles plus complexes et moins restrictifs en termes d’hypothèses. Cette partie est ponctuée d’analyses empiriques effectuées sur les données de l’Enquête emploi de 2006. La seconde partie tente d’analyser les effets du RSA sur le comportement de recherche des travailleurs à bas niveau de qualification dans le cadre du modèle de recherche d’emploi en utilisant les méthodes de simulations numériques calibrées sur l’Enquête emploi pour obtenir des résultats
This thesis presents the job-search model, starting from the elementary model to reach a model analyzing mechanisms designed to enhance employment recovery. This study concerns the French active solidarity income mechanism (Revenu de Solidarité Active or RSA). The first part will allow us to implement the theoretical elements we will need in the second part. In the first part, we will start with the elementary model, and then widen the debate to more complex models and less restrictive assumptions. We will punctuate this part with empirical analysis based on the 2006 employment survey data. The second art is aimed at analyzing the effects of the RSA on the job search behavior of workers, especially those with low levels of ualification. We will use numerical simulation methods calibrated on the employment survey in order to achieve results
APA, Harvard, Vancouver, ISO, and other styles
9

Masson, Chantal-Édith. "Le traitement des substantifs dans Le Robert - CD-ROM modélisation, formalisation et proposition méthodologique en vue de son informatisation." Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/2730.

Full text
Abstract:
L'acquisition des connaissances (knowledge engineering ) comporte trois activités: la modélisation, la formalisation et la représentation. Les toutes premières étapes de la modélisation étaient dirigées par le modèle a priori. Le choix d'une stratégie de formalisation et d'une notation représentationnelle, lui, fut fait sur la base de l'importance de l'activité de structuration dans la tâche lexicographique de niveau microstructurel et des intentions de la recherche (informatisation). C'est sur le langage de balisage structural XML (eXtensible Markup Language) que ce choix fut arrêté. Compte tenu du degré de finesse du modèle visé, le traitement de toutes les parties du discours était vite apparu impensable. Prenant en compte son intérêt lexicographique (plus grande représentation, variabilité, polysémie, etc.), c'est le substantif qui fut retenu en exclusivité. Deux échantillons de 100 articles chacun furent tirés de façon probabiliste (méthode aléatoire simple) de la liste des substantifs du Petit Robert - CD-ROM , une version informatisée de la version imprimée utilisée à l'étape précédente. Le premier de ces échantillons était destiné à la modélisation proprement dite, et le second, à la validation du modèle ainsi mis au jour. Le modèle, en une logique liée au balisage structural, prenait la forme d'une DTD (une Déclaration de Type de Document). Traités par ordre croissant de difficulté, les articles de l'échantillon de modélisation furent déconstruits un à un en particules d'information hiérarchisées, chacune de ces particules étant identifiée par une"étiquette" XML, structurellement assignée et assortie d'une cardinalité, factorisée et associée à des attributs au besoin, modularisée si l'économie du modèle--la DTD--s'en voyait augmentée. À son tour, ce modèle émergent prenait en charge le balisage d'un nouvel article; il pouvait en ressortir enrichi et amendé. À chaque modification du modèle, tous les mots déjà traités étaient rebalisés, et ce, afin de tester l'adéquation du modèle et d'assurer la validité des documents XML. L'hypothèse initiale comportait 2 volets. Le premier supposait que l'"occultation" de la méthode lexicographique n'était pas délibérée mais liée à la nature même des connaissances qui en limitait l'expression, que la méthode de traitement des informations au niveau microstructurel était bien réelle, qu'elle était suivie avec constance, et qu'il était possible de la retracer en bonne partie en déconstruisant ces résolutions de problèmes expertes que sont des articles. Ce premier volet fut significativement démontré alors que le modèle (la DTD) se montrait capable de diriger le traitement de 82 des 100 mots du second échantillon soit tel quel, soit avec des additions anticipées. En prenant en compte le caractère évolutif de la langue, c'est-à-dire une part d'incertitude incompressible, le second volet de l'hypothèse anticipait de l'inconstance dans le traitement."--Résumé abrégé par UMI.
APA, Harvard, Vancouver, ISO, and other styles
10

Dubot, Claire. "Modélisation CFD thermohydraulique des générateurs de vapeur et application de techniques de réduction de modèle." Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS029.

Full text
Abstract:
NAVAL GROUP mène une démarche R&D pour la modélisation et la simulation des échangeurs de chaleur qui a abouti au code de calcul thermohydraulique SIMEC-CFD. Celui-ci repose sur l’analogie entre le faisceau de tubes et un milieu poreux. Le générateur de vapeur est étudié. Il est proposé d’utiliser le modèle de mélange où la vitesse de dérive est reformulée comme une fonction du glissement afin d’implémenter un modèle connu et adapté aux écoulements dans les faisceaux de tubes. SIMEC-CFD est alimenté principalement par des corrélations empiriques. Pour pallier le manque de données dans la littérature, le recours à des techniques de réduction de modèle basées sur la POD est évalué afin de fournir des éléments plus précis à SIMEC-CFD. Celles-ci sont ainsi utilisées pour calculer rapidement l’écoulement et le coefficient d’échange intérieur-tube par un modèle réduit intrusif obtenu par projection de Galerkin des équations sur la base POD et pour définir la perte de charge diphasique par friction extérieur-tube par la méthode d’interpolation des solutions réduites Bi-CITSGM. Enfin, à moyen terme, l’objectif est d’enrichir la simulation de la boucle système à l’aide des simulations de SIMEC-CFD. Cependant, ces simulations CFD étant coûteuses en temps de calcul et en ressources, la réduction de modèle non intrusive par interpolation des coefficients paramétriques de l’échangeur complet est mise en œuvre
NAVAL GROUP has been carrying out a R&D approach for the modeling and simulation of heat exchangers. This led to the thermal-hydraulic calculation code SIMEC-CFD based on the analogy between the tube bundle and a porous medium. In this work, the steam generator is studied. It is proposed here to use the mixture model where the drift velocity is reformulated as a function of slip in order to implement a model from the literature suitable to flows in tube bundles. SIMEC-CFD is defined mainly by correlations or empirical models. To compensate for the lack of data in the literature, this thesis evaluates the use of model reduction techniques based on POD (Proper Orthogonal Decomposition) in order to supply more precise elements to SIMEC-CFD. These are thus used to calculate the flow and for the inside-tube heat exchange coefficient by a intrusive reduced order model obtained by Galerkin projection on the POD basis and to define the outside-tube two-phase friction pressure loss by the interpolation of reduced solutions Bi-CITSGM. Finally, in the near future, the aim is to expand the system simulation of the secondary loop using SIMEC-CFD. However, these CFD simulations being costly in computation time and in resources, the non-intrusive model reduction by interpolation of the parametric coefficients of the whole heat exchanger is implemented
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography