Dissertations / Theses on the topic 'Lois de mise à l'échelle'

To see the other types of publications on this topic, follow the link: Lois de mise à l'échelle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Lois de mise à l'échelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Aroua, Ayoub. "Mise à l'échelle des entraînements électromécaniques pour la conception au niveau système dans les premières phases de développement des véhicules électriques." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'industrie automobile est contrainte d'accélérer le développement et le déploiement des véhicules électrifiés à un rythme sans précédent, afin d'aligner le secteur du transport avec les objectifs climatiques. La réduction du temps de développement des véhicules électriques devient une priorité urgente. D'autre part, l'industrie est confrontée à une complexité accrue et à l'ampleur de l'espace de conception des chaînes de traction électrifiées émergentes. Les approches existantes pour aborder la conception des composants, notamment les méthodes numériques telles que la méthode des éléments finis, la mécanique des fluides numérique, etc., reposent sur un processus de conception détaillé. Cela entraîne une longue charge de calcul lorsqu'on essaie de les intégrer au niveau système. L'accélération des premières phases de développement des véhicules électrifiés nécessite de nouvelles méthodologies et de nouveaux outils, permettant d'explorer l'espace de conception au niveau système. Ces méthodologies devraient permettre d'évaluer les différents choix de pré-dimensionnement des chaînes de traction électrifiées dans les phases de pré-étude. Cette évaluation devrait se faire de manière efficace en termes de temps de calcul, tout en garantissant des résultats fiables en termes de consommation énergétique au niveau système. Pour relever ce défi, cette thèse de doctorat vise à développer une méthodologie de mise à l'échelle pour les systèmes d'entraînement électromécaniques, permettant l'étude au niveau système de différents véhicules électriques. Un système d'entraînement électromécanique se compose d'un ensemble comprenant un onduleur, une machine électrique, un réducteur mécanique et une unité de contrôle. La procédure de mise à l'échelle vise à prédire les données d'une conception nouvellement définie d'un composant donné avec des spécifications différentes sur la base d'une conception de référence, sans avoir à refaire des étapes qui demandent beaucoup de temps et d'efforts. À cette fin, différentes formulations de lois de mise à l'échelle des composants du système d'entraînement électromécanique sont examinées en détail et comparées au niveau composant en termes de mise à l'échelle de la perte de puissance. Un accent particulier est mis sur l'examen de la méthode de mise à l'échelle linéaire des pertes par une homothétie, qui est largement employée dans les études au niveau système. En effet, cette méthode présente des hypothèses discutables et n'a pas fait l'objet d'une étude approfondie. En outre, l'une des principales contributions de ce travail est la formulation des lois de mise à l'échelle des pertes de puissance des réducteurs mécaniques, qui ont été identifiées comme une lacune dans la littérature actuelle. Pour ce faire, une campagne expérimentale intensive a été menée sur des réducteurs mécaniques commerciaux. Pour intégrer les lois d'échelle au niveau système et étudier l'interaction entre les composants mis à l'échelle, le formalisme de la représentation macroscopique énergétique est utilisé. La nouveauté de la méthode proposée réside dans la structuration d'un modèle et d'une commande évolutifs du système d'entraînement électromécanique de référence à utiliser dans la simulation au niveau système. La nouvelle organisation consiste en un modèle et une commande de référence complétés par deux éléments d'adaptation de puissance du côté électrique et mécanique. Ces derniers éléments prennent en compte les effets d'échelle, y compris les pertes de puissance. La méthodologie est appliquée à différents cas d'étude de véhicules électriques à batterie, allant des véhicules légers aux véhicules lourds. Une attention particulière est accordée à l'évaluation de l'impact de la méthode de la mise à l'échelle linéaire sur la consommation d'énergie, en tenant compte de différents facteurs de mise à l'échelle de la puissance et des cycles de conduite, par rapport à d'autres méthodes de mise à l'échelle avec une haute-fidélité
The automotive industry is required to accelerate the development and deployment of electrified vehicles at a faster pace than ever, to align the transportation sector with the climate goals. Reducing the development time of electric vehicles becomes an urgent priority. On the other hand, the industry is challenged by the increasing complexity and large design space of the emerging electrified powertrains. The existing approaches to address component design, such as numerical methods exemplified by finite element method, computational fluid dynamic, etc., are based on a detailed design process. This leads to a long computational burden when trying to incorporate them at system-level. Speeding up the early development phases of electrified vehicles necessitates new methodologies and tools, supporting the exploration of the system-level design space. These methodologies should allow for assessing different sizing choices of electrified powertrains in the early development phases, both efficiently in terms of computational time and with reliable results in terms of energy consumption at system-level. To address this challenge, this Ph.D. thesis aims to develop a scaling methodology for electric axles, allowing system-level investigation of different power-rated electric vehicles. The electric axle considered in this thesis comprises a voltage source inverter, an electric machine, a gearbox, and a control unit. The scaling procedure is aimed at predicting the data of a newly defined design of a given component with different specifications based on a reference design, without redoing time and effort-consuming steps. For this purpose, different derivations of scaling laws of the electric axle components are thoroughly discussed and compared at component-level in terms of power loss scaling. A particular emphasis is placed on examining the linear losses-to-power scaling method, which is widely employed in system-level studies. This is because, this method presents questionable assumptions, and has not been the subject of a comprehensive examination. A key contribution of the presented work is the derivation of power loss scaling laws of gearboxes, which has been identified as a gap in the current literature. This is achieved through an intensive experimental campaign using commercial gearboxes. To incorporate the scaling laws at system-level and study the interaction between the scaled components, the energetic macroscopic representation formalism is employed. The novelty of the proposed method lies in structuring a scalable model and control for a reference electric axle to be used in system-level simulation. The novel organization consists of a reference model and control complemented by two power adaptation elements at the electrical and mechanical sides. These latter elements consider the scaling effects, including the power losses. The methodology is applied for different study cases of battery electric vehicles, ranging from light to heavy-duty vehicles. Particular attention is paid to assessing the impact of the linear power-to-losses scaling method on the energy consumption considering different power scaling factors and driving cycles, as compared to high-fidelity scaling methods
2

Pigenet, Nazim. "Mise en place des outils de suivi de prédiction de la demande électrique à l'échelle d'un territoire, application au département du Lots." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/617/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour repousser la construction de nouvelles lignes à haute tension, le département du Lot a mis en place un programme départemental de maîtrise de la demande d'électricité. L'efficacité d'un tel programme se mesure à son impact sur la pointe d'appel de puissance et son évaluation nécessite une modélisation de la courbe de charge départementale. Des modèles existent déjà, mais reposent sur une connaissance approfondie des parcs d'équipement et des comportements de leurs usagers. À l'échelle du Lot, ces informations sont rares, ce qui rend ces modèles peu adaptés. Le modèle proposé ici a donc été construit autour d'un nombre réduit de déterminants, issus d'une analyse approfondie de la demande électrique lotoise et de ses similitudes avec la demande électrique nationale. Les applications de l'outil sont ensuite testées sur des scénarios d'évolution des déterminants lotois.
In order to delay the construction of high-voltage lines, the French district of the Lot (one of the 98 French "departments") has set up a local programme of demand side management. The effectiveness of such a programme can be measured by its impact on the pic power demand and its assessment requires a modelising of the district's power load. Some such models are available already, but they are linked to a detailed knowledge of the existing equipment and consumer habits. In the Lot, this type of information is scarce, which renders the existing models inappropriate. The model proposed here was constructed using limited criteria defined via a thorough analysis of the Lot's electrical consumption and its similarities with national consumption. The applications of this model are then tested according to the various scenarios concerning the evolution of these criteria. .
3

Lamielle, S. "Contribution à la compréhension du comportement de l'abdomen lors d'un chargement dynamique frontal par une ceinture de sécurité." Phd thesis, Université Claude Bernard - Lyon I, 2008. http://tel.archives-ouvertes.fr/tel-00543990.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les études d'accidents montrent que l'abdomen est devenu le segment prioritaire à protéger pour un occupant ceinturé lors d'un choc automobile frontal, les lésions étant imputables au phénomène de sous marinage. Par ailleurs, un mauvais positionnement de la ceinture de sécurité peut également être à l'origine de lésions lors du déclenchement des prétensionneurs. Ces deux phénomènes entrainent un chargement dynamique de l'abdomen par la ceinture, les vitesses pouvant aller de 4m/s à 8m/s. Le but de cette étude est d'accroitre notre compréhension du comportement de l'abdomen et des mécanismes lésionnels afin d'élaborer un modèle prédictif du risque lésionnel utilisable pour le développement et l'amélioration des systèmes de protection de l'occupant. Pour étudier la réponse de l'abdomen face à un chargement dynamique par une ceinture huit essais sur huit Sujets Humains Post Mortem (SHPM) ont été réalisés. Quatre essais simulaient le phénomène de sous marinage et quatre celui de la prétension de la ceinture. Des bilans d'efforts complets, des mesures de déplacement, de déformées externes de la paroi abdominale, des radiographies et des mesures de pressions ont été réalisés. Les essais disponibles dans la littérature et les résultats expérimentaux ont conduit à développer un modèle masse-ressort-amortisseur reproduisant les principes pilotant le comportement de l'abdomen. Ce modèle souligne le caractère viscoélastique, non linéaire et inertiel de l'abdomen. L'exploitation des mesures réalisées associées aux bilans lésionnels a permis d'apporter des méthodes de validation des modèles numériques par éléments finis et d'améliorer la formulation du modèle être humain HUMOS2
4

Manach, Pierre-Yves. "Lois de comportement et mise en forme des matériaux métalliques." Habilitation à diriger des recherches, Université de Bretagne Sud, 2004. http://tel.archives-ouvertes.fr/tel-00269039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Piccuezzu, Eric. "Lois de comportement en géomécanique : modélisation, mise en oeuvre, identification." Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0227.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Apres un rappel des caractéristiques principales du comportement des geomateriaux, nous présentons dans le second chapitre un modèle de comportement générique pour les milieux granulaires base uniquement sur le critère de glissement de coulomb, le concept d'état critique et la loi de dilatance de roscoe. Nous proposons ensuite trois extensions de ce modèle générique en faisant appel à la théorie des multimecanismes dans laquelle plusieurs sources de plasticité sont introduites. La première extension correspond au cas de plusieurs directions de glissements simultanées, la seconde extension permet de retrouver le modèle orthotrope de hujeux alors que la troisième conduit à un modèle orthotrope dans les axes principaux des contraintes. Dans un troisième chapitre, nous nous intéressons au problème de l'intégration locale des lois de comportement multimecanismes. Divers algorithmes sont testes et de nombreux résultats numériques sont présentes. Un effort particulier a été mené sur la technologie à mettre en oeuvre ainsi que le contrôle du choix automatique du pas de discrétisation dans le cas des modèles multimecanismes couples. Le dernier chapitre est consacre au problème de l'identification des paramètres pour les lois de comportement présentes dans ce mémoire. Nous présentons un outil intègre d'aide à l'identification des paramètres base sur une approche itérative consistant à minimiser une fonction coupt représentative de l'écart entre chemins expérimentaux et simulations numériques. Divers résultats sont présentes qui démontrent l'insert d'une telle approche
6

Nguyen, Quang. "Mise au point d'un spéctromètre à l'échelle nanoscopique et son application." Phd thesis, Ecole Polytechnique X, 2008. http://pastel.archives-ouvertes.fr/pastel-00004206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années, l'étude des nanostructures a pris un essor remarquable, tant du point de vue théorique que sur le plan des applications, actuelles et potentielles. La miniaturisation des structures, allant jusqu'à l'échelle atomique, met en évidence des propriétés uniques des matériaux qui se retrouvent à la base d'applications industrielles innovantes, tout en requérant des outils d'élaboration et de caractérisation nouveaux. Ainsi, la caractérisation précise et fiable de structures à l'échelle nanométrique représente un besoin important des nanotechnologies actuelles. Dans ce contexte, la société HORIBA Jobin Yvon, producteur mondial d'instrumentation scientifique et, en particulier, de spectromètres Raman, a initié une coopération étroite avec le Laboratoire de Physique des Interfaces et des Couches Minces (LPICM) de Ecole Polytechnique, sur un projet de conception, réalisation et validation d'un spectromètre Raman capable de caractériser des nanostructures (appelée aussi spectromètre Raman en champ proche ou nano-Raman). Il s'agit d'une convention CIFRE dont j'ai bénéficié.
7

Saunier-Batté, Lauriane. "Prévisions d'ensemble à l'échelle saisonnière : mise en place d'une dynamique stochastique." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00795478.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prévision d'ensemble à l'échelle saisonnière avec des modèles de circulation générale a connu un essor certain au cours des vingt dernières années avec la croissance exponentielle des capacités de calcul, l'amélioration de la résolution des modèles, et l'introduction progressive dans ceux-ci des différentes composantes (océan, atmosphère, surfaces continentales et glace de mer) régissant l'évolution du climat à cette échelle. Malgré ces efforts, prévoir la température et les précipitations de la saison à venir reste délicat, non seulement sur les latitudes tempérées mais aussi sur des régions sujettes à des aléas climatiques forts comme l'Afrique de l'ouest pendant la saison de mousson. L'une des clés d'une bonne prévision est la prise en compte des incertitudes liées à la formulation des modèles (résolution, paramétrisations, approximations et erreurs). Une méthode éprouvée est l'approche multi-modèle consistant à regrouper les membres de plusieurs modèles couplés en un seul ensemble de grande taille. Cette approche a été mise en œuvre notamment dans le cadre du projet européen ENSEMBLES, et nous montrons qu'elle permet généralement d'améliorer les rétro-prévisions saisonnières des précipitations sur plusieurs régions d'Afrique par rapport aux modèles pris individuellement. On se propose dans le cadre de cette thèse d'étudier une autre piste de prise en compte des incertitudes du modèle couplé CNRM-CM5, consistant à ajouter des perturbations stochastiques de la dynamique du modèle d'atmosphère ARPEGE-Climat. Cette méthode, baptisée "dynamique stochastique", consiste à introduire des perturbations additives de température, humidité spécifique et vorticité corrigeant des estimations d'erreur de tendance initiale du modèle. Dans cette thèse, deux méthodes d'estimation des erreurs de tendance initiale ont été étudiées, basées sur la méthode de nudging (guidage) du modèle vers des données de référence. Elles donnent des résultats contrastés en termes de scores des rétro-prévisions selon les régions étudiées. Si on estime les corrections d'erreur de tendance initiale par une méthode de nudging itéré du modèle couplé vers les réanalyses ERA-Interim, on améliore significativement les scores sur l'hémisphère Nord en hiver en perturbant les prévisions saisonnières en tirant aléatoirement parmi ces corrections. Cette amélioration est accompagnée d'une nette réduction des biais de la hauteur de géopotentiel à 500 hPa. Une rétro-prévision en utilisant des perturbations dites"optimales" correspondant aux corrections d'erreurs de tendance initiale du mois en cours de prévision montre l'existence d'une information à l'échelle mensuelle qui pourrait permettre de considérablement améliorer les prévisions. La dernière partie de cette thèse explore l'idée d'un conditionnement des perturbations en fonction de l'état du modèle en cours de prévision, afin de se rapprocher si possible des améliorations obtenues avec ces perturbations optimales
8

Artus, Vincent. "Mise à l'échelle des écoulements diphasiques dans les milieux poreux hétérogènes." Paris 6, 2003. http://www.theses.fr/2003PA066352.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Sharify, Meisam. "Algorithmes de mise à l'échelle et méthodes tropicales en analyse numérique matricielle." Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00643836.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'Algèbre tropicale peut être considérée comme un domaine relativement nouveau en mathématiques. Elle apparait dans plusieurs domaines telles que l'optimisation, la synchronisation de la production et du transport, les systèmes à événements discrets, le contrôle optimal, la recherche opérationnelle, etc. La première partie de ce manuscrit est consacrée a l'étude des applications de l'algèbre tropicale à l'analyse numérique matricielle. Nous considérons tout d'abord le problème classique de l'estimation des racines d'un polynôme univarié. Nous prouvons plusieurs nouvelles bornes pour la valeur absolue des racines d'un polynôme en exploitant les méthodes tropicales. Ces résultats sont particulièrement utiles lorsque l'on considère des polynômes dont les coefficients ont des ordres de grandeur différents. Nous examinons ensuite le problème du calcul des valeurs propres d'une matrice polynomiale. Ici, nous introduisons une technique de mise à l'échelle générale, basée sur l'algèbre tropicale, qui s'applique en particulier à la forme compagnon. Cette mise à l'échelle est basée sur la construction d'une fonction polynomiale tropicale auxiliaire, ne dépendant que de la norme des matrices. Les raciness (les points de non-différentiabilité) de ce polynôme tropical fournissent une pré-estimation de la valeur absolue des valeurs propres. Ceci se justifie en particulier par un nouveau résultat montrant que sous certaines hypothèses faites sur le conditionnement, il existe un groupe de valeurs propres bornées en norme. L'ordre de grandeur de ces bornes est fourni par la plus grande racine du polynôme tropical auxiliaire. Un résultat similaire est valable pour un groupe de petites valeurs propres. Nous montrons expérimentalement que cette mise à l'échelle améliore la stabilité numérique, en particulier dans des situations où les données ont des ordres de grandeur différents. Nous étudions également le problème du calcul des valeurs propres tropicales (les points de non-différentiabilité du polynôme caractéristique) d'une matrice polynômiale tropicale. Du point de vue combinatoire, ce problème est équivalent à trouver une fonction de couplage: la valeur d'un couplage de poids maximum dans un graphe biparti dont les arcs sont valués par des fonctions convexes et linéaires par morceaux. Nous avons développé un algorithme qui calcule ces valeurs propres tropicales en temps polynomial. Dans la deuxième partie de cette thèse, nous nous intéressons à la résolution de problèmes d'affectation optimale de très grande taille, pour lesquels les algorithms séquentiels classiques ne sont pas efficaces. Nous proposons une nouvelle approche qui exploite le lien entre le problème d'affectation optimale et le problème de maximisation d'entropie. Cette approche conduit à un algorithme de prétraitement pour le problème d'affectation optimale qui est basé sur une méthode itérative qui élimine les entrées n'appartenant pas à une affectation optimale. Nous considérons deux variantes itératives de l'algorithme de prétraitement, l'une utilise la méthode Sinkhorn et l'autre utilise la méthode de Newton. Cet algorithme de prétraitement ramène le problème initial à un problème beaucoup plus petit en termes de besoins en mémoire. Nous introduisons également une nouvelle méthode itérative basée sur une modification de l'algorithme Sinkhorn, dans lequel un paramètre de déformation est lentement augmenté. Nous prouvons que cette méthode itérative(itération de Sinkhorn déformée) converge vers une matrice dont les entrées non nulles sont exactement celles qui appartiennent aux permutations optimales. Une estimation du taux de convergence est également présentée.
10

Silva, Vargas Karen Zulay. "Mise à l'échelle de la synthèse d'alcool allylique à partir de Glycérol." Thesis, Centrale Lille Institut, 2020. http://www.theses.fr/2020CLIL0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'alcool allylique est une molécule plate-forme intéressante en raison de sa large gamme d’applications. La Désoxydehydratation (DODH) du glycérol semble actuellement la méthode la plus compétitive pour synthétiser l'alcool allylique à partir de ressources renouvelables. Cependant, jusqu'à présent, cette réaction n'a été que peu étudiée en littérature. Le but de cette thèse était de développer un procédé de production intégré d'alcool allylique via DODH de glycérol en utilisant un alcool secondaire comme solvant-réducteur. Le développement du catalyseur a été réalisé en utilisant un catalyseur d'oxyde de rhénium supporté sur cérine. Ce dernier a été synthétisé via un processus de nanocasting en utilisant de la silice et du charbon actif comme agents structurants, donnant d'excellents rendements allant jusqu'à 86%, en utilisant un 2-hexanol ou MIBC comme donneur d'hydrogène et solvant. En ce qui concerne le développement du procédé, les données d'équilibre liquide vapeur isobare ont été déterminées pour les principaux systèmes binaires afin de modéliser la colonne de distillation. Les données expérimentales de VLE ont été ajustées avec succès en utilisant les modèles thermodynamique NRTL, UNIQUAC et Wilson. Enfin, la modélisation intégrée du procédé a été réalisée à partir des résultats expérimentaux et proposant différents scénarios en fonction du solvant utilisé. Toutes les stratégies proposées ont permis une purification d'alcool allylique de 99,99%. Dans tous les scénarios, le procédé MIBC s'est révélé être une faisable stratégie d’un point de vue technique, qui pourrait potentiellement servir de point de départ pour le développement d'un procédé DODH à grande échelle
Allyl Alcohol is an interesting platform molecule due to its broad range of applications. The Deoxydehydration (DODH) of glycerol seems currently the most competitive method to synthesize allyl alcohol from renewable sources. However, so far, this reaction has been only marginally investigated. The aim of this thesis was to develop an integrated production process of allyl alcohol via DODH of glycerol using a secondary alcohol as solvent-reductant. The catalyst development was carried out using ceria-supported rhenium oxide catalyst. Mesoporous ceria materials were synthetized via a nanocasting process using SiO2 and activated carbon as hard templates, giving excellent yields of up to 86%, using a 2-Hexanol or MIBC as a hydrogen donor and solvent. With respect to the process development, isobaric vapor liquid equilibrium data were determined for main binary systems in order to model the distillation column. The experimental VLE data was successfully fitted using NRTL, UNIQUAC and Wilson thermodynamic model. Finally, the integrated process modelling was carried out based on the experimental results and proposing different scenarios depending on the used solvent. All the proposed strategies allowed to obtain an allyl alcohol purity of 99.99%. In any scenario, the MIBC process proved to be a feasible strategy from a technical point of view, which could potentially be used as starting point for the development of a large scale DODH process
11

Viens, Nathalie. "Influence de la mise à l'échelle sur les performances de séparation d'une colonne d'adsorption." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0021/MQ53606.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Wendling, Audrey. "Simulation à l'échelle mésoscopique de la mise en forme de renforts de composites tissés." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00961196.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, l'intégration de pièces composites dans les produits intéresse de plus en plus les industriels, particulièrement dans le domaine des transports. En effet, ces matériaux présentent de nombreux avantages, notamment celui de permettre une diminution de la masse des pièces lorsqu'ils sont correctement exploités. Pour concevoir ces pièces, plusieurs procédés peuvent être utilisés, parmi lesquels le RTM (Resin Transfer Molding) qui consiste en la mise en forme d'un renfort sec (préformage) avant une étape d'injection de résine. Cette étude concerne la première étape du procédé RTM, celle de préformage. L'objectif est de mettre en œuvre une stratégie efficace conduisant à la simulation par éléments finis de la mise en forme des renforts à l'échelle mésoscopique. A cette échelle, le renfort fibreux est modélisé par un enchevêtrement de mèches supposées homogènes. Plusieurs étapes sont alors nécessaires et donc étudiées ici pour atteindre cet objectif. La première consiste à créer un modèle géométrique 3D le plus réaliste possible des cellules élémentaires des renforts considérés. Elle est réalisée grâce à la mise en œuvre d'une stratégie itérative basée sur deux propriétés. D'une part, la cohérence, qui permet d'assurer une bonne description du contact entre les mèches, c'est-à-dire, que le modèle ne contient ni vides ni interpénétrations au niveau de la zone de contact. D'autre part, la variation de la forme des sections de la mèche le long de sa trajectoire qui permet de coller au mieux à la géométrie évolutive des mèches dans le renfort. Grâce à ce modèle et à une définition libre par l'utilisateur de l'architecture tissée, un modèle représentatif de tout type de renfort (2D, interlock) peut être obtenu. La seconde étape consiste à créer un maillage hexaédrique 3D cohérant de ces cellules élémentaires. Basé sur la géométrie obtenue à la première étape. L'outil de maillage créé permet de mailler automatiquement tout type de mèche, quelle que soit sa trajectoire et la forme de ses sections. La troisième étape à franchir consiste, à partir du comportement mécanique du matériau constitutif des fibres et de la structure de la mèche, à mettre en place une loi de comportement du matériau homogène équivalent à un matériau fibreux. Basé sur les récents développements expérimentaux et numériques en matière de loi de comportement de structures fibreuses, un nouveau modèle de comportement est présenté et implémenté. Enfin, une étude des différents paramètres intervenant dans les calculs en dynamique explicite est réalisée. Ces deux derniers points permettent à la fois de faire converger rapidement les calculs et de se rapprocher de la réalité de la déformation des renforts. L'ensemble de la chaîne de modélisation/simulation des renforts fibreux à l'échelle mésoscopique ainsi créée est validée par comparaison d'essais numériques et expérimentaux de renforts sous sollicitations simples.
13

Wendling-Hivet, Audrey. "Simulation à l'échelle mésoscopique de la mise en forme de renforts de composites tissés." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, l’intégration de pièces composites dans les produits intéresse de plus en plus les industriels, particulièrement dans le domaine des transports. En effet, ces matériaux présentent de nombreux avantages, notamment celui de permettre une diminution de la masse des pièces lorsqu’ils sont correctement exploités. Pour concevoir ces pièces, plusieurs procédés peuvent être utilisés, parmi lesquels le RTM (Resin Transfer Molding) qui consiste en la mise en forme d’un renfort sec (préformage) avant une étape d’injection de résine. Cette étude concerne la première étape du procédé RTM, celle de préformage. L’objectif est de mettre en œuvre une stratégie efficace conduisant à la simulation par éléments finis de la mise en forme des renforts à l’échelle mésoscopique. A cette échelle, le renfort fibreux est modélisé par un enchevêtrement de mèches supposées homogènes. Plusieurs étapes sont alors nécessaires et donc étudiées ici pour atteindre cet objectif. La première consiste à créer un modèle géométrique 3D le plus réaliste possible des cellules élémentaires des renforts considérés. Elle est réalisée grâce à la mise en œuvre d’une stratégie itérative basée sur deux propriétés. D’une part, la cohérence, qui permet d’assurer une bonne description du contact entre les mèches, c'est-à-dire, que le modèle ne contient ni vides ni interpénétrations au niveau de la zone de contact. D’autre part, la variation de la forme des sections de la mèche le long de sa trajectoire qui permet de coller au mieux à la géométrie évolutive des mèches dans le renfort. Grâce à ce modèle et à une définition libre par l’utilisateur de l’architecture tissée, un modèle représentatif de tout type de renfort (2D, interlock) peut être obtenu. La seconde étape consiste à créer un maillage hexaédrique 3D cohérant de ces cellules élémentaires. Basé sur la géométrie obtenue à la première étape. L’outil de maillage créé permet de mailler automatiquement tout type de mèche, quelle que soit sa trajectoire et la forme de ses sections. La troisième étape à franchir consiste, à partir du comportement mécanique du matériau constitutif des fibres et de la structure de la mèche, à mettre en place une loi de comportement du matériau homogène équivalent à un matériau fibreux. Basé sur les récents développements expérimentaux et numériques en matière de loi de comportement de structures fibreuses, un nouveau modèle de comportement est présenté et implémenté. Enfin, une étude des différents paramètres intervenant dans les calculs en dynamique explicite est réalisée. Ces deux derniers points permettent à la fois de faire converger rapidement les calculs et de se rapprocher de la réalité de la déformation des renforts. L’ensemble de la chaîne de modélisation/simulation des renforts fibreux à l’échelle mésoscopique ainsi créée est validée par comparaison d’essais numériques et expérimentaux de renforts sous sollicitations simples
Nowadays, manufacturers, especially in transport, are increasingly interested in integrating composite parts into their products. These materials have, indeed, many benefits, among which allowing parts mass reduction when properly operated. In order to manufacture these parts, several methods can be used, including the RTM (Resin Transfer Molding) process which consists in forming a dry reinforcement (preform) before a resin being injected. This study deals with the first stage of the RTM process, which is the preforming step. It aims to implement an efficient strategy leading to the finite element simulation of fibrous reinforcements at mesoscopic scale. At this scale, the fibrous reinforcement is modeled by an interlacement of yarns assumed to be homogeneous and continuous. Several steps are then necessary and therefore considered here to achieve this goal. The first consists in creating a 3D geometrical model of unit cells as realistic as possible. It is achieved through the implementation of an iterative strategy based on two main properties. On the one hand, consistency, which ensures a good description of the contact between the yarns, that is to say, the model does not contain spurious spaces or interpenetrations at the contact area. On the other hand, the variation of the yarn section shape along its trajectory that enables to stick as much as possible to the evolutive shape of the yarn inside the reinforcement. Using this tool and a woven architecture freely implementable by the user, a model representative of any type of reinforcement (2D, interlock) can be obtained. The second step consists in creating a 3D consistent hexahedral mesh of these unit cells. Based on the geometrical model obtained in the first step, the meshing tool enables to mesh any type of yarn, whatever its trajectory or section shape. The third step consists in establishing a constitutive equation of the homogeneous material equivalent to a fibrous material from the mechanical behavior of the constituent material of fibers and the structure of the yarn. Based on recent experimental and numerical developments in the mechanical behavior of fibrous structures, a new constitutive law is presented and implemented. Finally, a study of the different parameters involved in the dynamic/explicit scheme is performed. These last two points allow both to a quick convergence of the calculations and approach the reality of the deformation of reinforcements. The entire chain modeling/simulation of fibrous reinforcements at mesoscopic scale created is validated by numerical and experimental comparison tests of reinforcements under simple loadings
14

Fiorio, Bruno. "Etude expérimentale du frottement glace-structure à l'échelle centimétrique." Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00764210.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans les régions polaires, les ouvrages de génie civil subissent l'effet de la dérive des glaces. Celle-ci génère des sollicitations dynamiques contrôlées en partie par le frottement glace-structure. Des essais de frottement cycliques glace-béton ont été réalisés à -10°C, avec une boîte de cisaillement direct, pour différentes conditions de contact (contraintes normales de 25 à 800 kPa ; vitesses de 0,1 à 10 mm.mim-1; rugosité de la surface de béton de 0 à 0,55 mm). Des observations optiques de la glace et des mesures de suivi de la topographie de la surface de béton complètent ces essais. Ceux-ci montrent une augmentation du coefficient de frottement glace-béton au cours du temps, conséquence de la maturation du contact gouvernée par la déformation viscoplastique de la glace. Les résultats ont permis de formuler des lois d'interfaces définissant le coefficient de frottement en fonction des conditions de contact. Les observations optiques ont permis de caractériser les mécanismes physiques mis en jeu dans la glace au niveau de l'interface: déformation viscoplastique, adhérence, recristallisation, glissement aux joints de grains, micro et macrofissuration. La déformation viscoplastique et l'adhérence apparaissent comme les principaux responsables du comportement au frottement observé. Le suivi de la topographie de la surface de béton a permis de mettre en évidence l'usure du béton et d'en quantifier le taux. Une étude théorique du frottement complète ce travail expérimental. Elle prend en compte la déformation viscoplastique de la glace et l'adhérence glace-béton dans un modèle bidimensionnel de l'interface. Ce modèle rend compte convenablement des observations expérimentales et confirme le rôle de la déformation viscoplastique de la glace, qui crée un phénomène de portance limitant la pénétration des aspérités dans la glace, et celui de l'adhérence glace-béton. Il montre par ailleurs l'influence de la topographie de la plaque sur le frottement.
15

Bouissonnie, Arnaud. "Les cinétiques de dissolution : de l'approche mécaniste à l'échelle atomique à la description macroscopique à l'échelle centrimétrique." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAH013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les cinétiques de dissolution représentent un composant majeur des flux de matière sur Terre. Lors de cette thèse, plusieurs facteurs pouvant impacter la dissolution ont été étudiés afin de lier différentes échelles spatiales. Cette thèse reporte l’étude de la dissolution de minéraux modèles (enstatite et calcite) de l’échelle de l’atome à celle de la face pour le premier, et de celle de la face à celle du milieu poreux pour le deuxième. L’anisotropie de dissolution observée expérimentalement sur l’enstatite a pu être reproduite à l’aide d’un modèle probabiliste des ruptures de liaisons. L’intérêt de ce type de modèle est démontré et des propositions quant à l’extension de son utilisation ont été faites. Un modèle de substitution du taux de dissolution de l’enstatite liant l’échelle atomique à celle de la face a également été proposé. L’étude de la calcite a, quant à elle, démontré l’importance du choix de la loi de vitesse dans les études de mise à l’échelle des taux de dissolution. Une expérience en colonne et sa simulation à l’aide d’un modèle de transport-réactif ont démontré que l’hétérogénéité de l’écoulement du fluide autour d’un minéral joue un rôle de premier ordre dans la dissolution des minéraux
Dissolution kinetics represent a major challenge in the understanding of geological phenomena. During this thesis, several factors that could impact dissolution were studied in order to link different spatial scales. The dissolution of the model minerals of this thesis, enstatite and calcite, was studied from the atomic scale to the face scale for the first and from the face to the porous medium scale for the second. The dissolution anisotropy observed experimentally on enstatite could be reproduced using a probabilistic model. The interest of this type of model has been demonstrated and proposals for extending their use have been made. A surrogate model for the dissolution rate of enstatite linking the atomic scale to the face scale was also established. The study of calcite has demonstrated the importance of the selection of the rate law in dissolution rates upscaling studies. A column experiment and its simulation using a reactive-transport model demonstrated that the heterogeneity of the fluid flow around a mineral plays a major role in the dissolution of minerals
16

Vidal, Jérôme. "Étude expérimentale de la mise à l'échelle de l'imbibition : influence des hétérogénéités du milieu poreux." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT013H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Experiences sur deux milieux poreux artificiels, choisis pour leur grande homogeneite, leur franche mouillabilite a l'eau en presence d'huile et la reproductivite des proprietes petrophysiques d'un echantillon a l'autre. Les schemas experimentaux sont simules par un modele numerique base sur les concepts de permeabilite relative et de pression capillaire. On montre ensuite l'influence de l'heterogeneite du mileu poreux sur les cinetiques de production d'huile par imbibition
17

Morère, Yann. "Mise en oeuvre de lois de commande pour les modèles flous de type Takagi-Sugeno." Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/606b1a0a-cd9b-40f2-8292-bf560ea0af7c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comme dans le cas linéaire, il est nécessaire d'étudier la stabilité des boucles de régulation floue. Dans la plupart des cas, l'étude de la stabilité et de la stabilisation est faite par une approche utilisant une fonction de Lyapunov quadratique. Des propriétés de stabilité et de stabilisation peuvent alors être déduites par la résolution d'un ensemble d'inégalités linéaires matricielles (LMIs). Ce mémoire propose quelques travaux basés sur l'utilisation de la méthode de Lyapunov, pour effectuer la synthèse de lois de commande pour des modèles utilisant une représentation floue de type Takagi-Sugeno. La formulation LMI et son potentiel de résolution seront utilisés afin d'étendre les conditions de stabilité trouvés dans la littérature. Dans un premier temps, quelques propriétés qui permettent de «passer» d'un modèle non linéaire affine en la commande à un modèle flou de type Takagi Sugeno sont proposées, ainsi que de nouvelles conditions de stabilité basées sur l'utilisation d'une loi de type CDF (Compensation et Division pour modèles Flous). Ensuite, une seconde approche, basée sur l'utilisation d'une fonction de Lyapunov non quadratique, est présentée. Les travaux présentés sont focalisés sur le cas discret. Deux approches différentes sont utilisées pour obtenir des conditions de stabilité non quadratiques. La première approche correspond globalement à une extension du cas quadratique au cas non quadratique. La deuxième approche mise en œuvre est basée sur une proposition de transformation matricielle. Toutes les propositions sont illustrées par des exemples qui permettent de montrer que les conditions obtenues sont moins conservatives que leurs équivalents quadratiques. Ces résultats théoriques ont été appliqués à un système connu en simulation et en temps réel : le double pendule inversé. Enfin, quelques pistes sont données pour les travaux futurs dans la dernière partie. Elles consistent à obtenir une forme régulière pour les modèles flous T-S permettant de réduire, dans certains cas, la conservativité des résultats de stabilité et de stabilisation.
18

Moulart, Raphaël. "Développement et mise en oeuvre d'une méthode de mesure de champs de déformation à l'échelle micrométrique." Phd thesis, Paris, ENSAM, 2007. http://pastel.archives-ouvertes.fr/pastel-00003212.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse présente la mise au point d'une méthodologie de mesure de champs de déformations planes à l'échelle micrométrique. La mesure cinématique est faite par une méthode de grille qui analyse les déformations d'un réseau périodique attaché à la surface à étudier. Les grilles ont été réalisées par photolithographie interférentielle directe. Pour l'observation et la numérisation des réseaux, le choix s'est porté sur la microscopie interférométrique en lumière blanche qui donne accès à la topographie 3D de la surface d'intérêt. Une étude de bruit à permis d'optimiser la réalisation des réseaux pour l'application mécanique auxquels ils étaient destinés. Par ailleurs, l'application de déplacements de corps rigide a permis de mettre en évidence un problème de corrélation spatiale de ce bruit qui ne pouvait être ignoré. Ainsi, et en apportant un soin particulier sur la réalisation expérimentale des essais mécaniques, la résolution en déformation obtenue est de l'ordre de 1 à 2×10−3 pour une résolution spatiale d'environ 20 μm. Une première application concernant l'étude des déformations élasto-plastiques d'un acier ferritique a permis de valider la présente méthode, de l'étendre à l'étude de régions d'intérêt de plus grandes tailles et d'en souligner les points forts mais aussi les limites.
19

Moulard, Raphaël. "DÉVELOPPEMENT ET MISE EN OEUVRE D'UNE MÉTHODE DE MESURE DE CHAMPS DE DÉFORMATION À L'ÉCHELLE MICROMÉTRIQUE." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2007. http://tel.archives-ouvertes.fr/tel-00351685.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse présente la mise au point d'une méthodologie de mesure de champs de déformations planes à l'échelle micrométrique. La mesure cinématique est faite par une méthode de grille qui analyse les déformations d'un réseau périodique attaché à la surface à étudier. Les grilles ont été réalisées par photolithographie interférentielle directe. Pour l'observation et la numérisation des réseaux, le choix s'est porté sur la microscopie interférométrique en lumière blanche qui donne accès à la topographie 3D de la surface d'intérêt. Une étude de bruit à permis d'optimiser la réalisation des réseaux pour l'application mécanique auxquels ils étaient destinés. Par ailleurs, l'application de déplacements de corps rigide a permis de mettre en évidence un problème de corrélation spatiale de ce bruit qui ne pouvait être ignoré. Ainsi, et en apportant un soin particulier sur la réalisation expérimentale des essais mécaniques, la résolution en déformation obtenue est de l'ordre de 1 à 2×10-3 pour une résolution spatiale d'environ 20 µm. Une première application concernant l'étude des déformations élasto-plastiques d'un acier ferritique a permis de valider la présente méthode, de l'étendre à l'étude de régions d'intérêt de plus grandes tailles et d'en souligner les points forts mais aussi les limites.
20

McKee, François. "Etude et mise à l'échelle des écoulements diphasiques en milieux poreux hétérogènes par une approche d'optimisation." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=bd435ce7-5514-401b-9305-92faceb0a7ba.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le couplage de l'expertise géologique et de la simulation numérique permet à l'industrie pétrolière de construire des modèles de réservoir toujours plus détaillés. Ces modèles intègrent la totalité des données de production et de sismique disponibles, mais nécessitent l'utilisation de la géostatistique et d'une approche stochastique. Un grand nombre de simulations est requis pour estimer les réserves d'hydrocarbures et pour optimiser la récupération de pétrole. Lors d'une première étape, les ingénieurs conçoivent un modèle géologique respectant la géométrie du réservoir et pouvant contenir plusieurs millions de mailles. Dans un second temps, un modèle de réservoir, plus grossier, est construit. Celui-ci contient un nombre réduit de mailles et assure un temps de simulation raisonnable. L'upscaling est la caractérisation du modèle de réservoir conformément aux données du modèle géologique. L'upscaling d'écoulements multiphasiques est encore un problème d'actualité. En effet, les méthodes disponibles sont souvent appliquées au cas par cas ou par étapes successives. Les courbes de perméabilités relatives, caractéristiques des écoulements multiphasiques, sont au coeur du problème. Nous proposons ici une méthode d'upscaling des courbes de perméabilités relatives par une approche d'optimisation. Le réservoir étudié est découpé en zones distinctes. Les courbes de perméabilités relatives upscalées, obtenues pour chaque zone, permettent d'obtenir un modèle de réservoir approchant le modèle géologique en termes d'écoulement équivalent
Geological and geophysical expertise coupled to numerical simulation allow the petroleum industry to build increasingly detailed reservoir models. These models integrate the whole set of available data (production and seismic) but involve geostatistics and stochastic approach. A large number of simulations is required to estimate hydrocarbon reserves and optimize oil recovery. During a first step, engineers build a geological model respecting the real geometry of the reservoir and containing possibly million of cells. The second step consist in building a coarser model, the reservoir model. It contains less cells in order to ensure that numerical simulation is feasible within a reasonable time. Upscaling is the characterization of the reservoir model accordingly to the geological model properties. Multiphase flows upscaling is still an actual issue. Indeed, methods are applied from case to case or in successive stages. Relative permeability curves, characteristic of multiphase flow equations, are a real issue. The main purpose here is to propose an upscaling method for relative permeability by an optimization approach. The studied reservoir is divided in several zones. The upscaled relative permeability curves obtained for each zone allow the building of a reservoir model. This reservoir model forms a good match for the geological model in terms of equivalent flow
21

Paitier, Agathe. "Etude de la mise à l'échelle des piles à combustible microbiennes : collecteurs de courant et hydrodynamique." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI107/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Répondre aux besoins énergétiques croissants de nos sociétés et limiter leur impact sur l’environnement est un enjeu actuel majeur. De nouvelles technologies alternatives comptent tirer profit de sources d’énergie négligées. Le potentiel énergétique des eaux usées peut être exploité par de nouvelles technologies telles que les piles à combustible microbiennes (PACM). Ces piles, pouvant produire de l’énergie électrique à partir d’eaux usées, montrent une diminution de leur rendement énergétique lorsque leur taille augmente, ce qui ne permet pas encore leur application industrielle. Ces travaux de thèse visent à identifier certains verrous de ce changement d’échelle et à proposer de nouvelles directions pour leur optimisation. Une première partie s’est intéressée à l’influence des collecteurs de courant anodiques sur les performances électriques et sur le développement du biofilm électro-actif. Nous avons émis l’hypothèse qu’à grande échelle, les collecteurs de courant peuvent être un élément limitant à la production d’électricité. Pour vérifier cette hypothèse, quatre PACM avec une anode de 490 cm² connectée de différentes manières ont été étudiées. L’augmentation du nombre de collecteurs a permis une hausse de la puissance produite par les PACM. La disposition des collecteurs affecte la répartition du potentiel sur la surface d’anode et peut engendrer dans certains cas, des gradients de potentiel qui influencent la structure microbiologique du biofilm, en particulier Geobacter. Par ailleurs, des mesures d’impédance ont montré que multiplier les collecteurs augmente la capacité de double couche de l’anode et engendre un courant capacitif dont l’importance pour les performances de fonctionnement en cycles de charge/décharge est non négligeable. La suite du travail s’est attachée à prendre en compte différents aspects physiques, notamment l’aspect hydrodynamique, afin de modéliser leur fonctionnement. Pour cela, trois PACM de volumes différents ont été mises en œuvre et testées à différents débits. Les données de configuration, d’opération et de performances de ces piles ont permis de construire des modèles statistiques de régression linéaire multiple prédisant la valeur de puissance maximale. Ces deux modèles ont montré que la puissance maximale produite était principalement corrélée à la vitesse de l’électrolyte circulant dans la pile et à la contrainte de cisaillement appliquée à l’anode par le mouvement du fluide. Ces deux parties ont également montré que l’abondance dans le biofilm de Geobacter, une bactérie électro-active très répandue dans les PACM, n’était pas corrélée avec la puissance maximale. Tout en étant très abondante, son seul nombre n’explique donc pas entièrement les performances électriques d’une PACM
Facing increasing energy needs and limiting their impact on the environment are current and major issues for society. Renewable energy development is needed and new alternative technologies could benefit from exploiting neglected energy sources, such as microbial fuel cells (MFC), for energy production. MFCs can be operated with wastewater and produce a reasonable quantity of energy at the small laboratory-scale. Unfortunately, when their size is increased, their efficiency dramatically decreases, which prevents their industrial use. This thesis aims at identifying some obstacles to scale-up of MFC and proposing new directions for its optimization. The first part of the study was focused on the influence of anodic current collectors on electrical performance and on electroactive biofilm development. Our hypothesis was that they could be a limiting factor for electricity production at large scales. To test this hypothesis, four MFCs were operated with a 490 cm² anode connected to the external circuit in a different ways. Increasing the number of collectors improved the power. Collector’s layout influenced electrical potential on the anode surface and created an electrical potential gradient on the anode and this gradient shaped the microbiological structure of the biofilm. This effect especially concerns Geobacter, whose clade G. metallireducens is favored at strongly negative potentials. In addition, impedance measurements showed that multiplying collectors increased the double layer capacitance and, thus, generated a capacitive current that was important for MFC functioning in cycles of charge/discharge and that would improve its performance. Then, MFCs were considered as bioreactors and their different aspects, notably hydrodynamics, were taken into account to model their power output. Three MFCs of different volumes were operated under continuous-flow conditions and tested at four different flow rates. Configuration, operation and performance data were used to build two multiple linear regression statistical models: the first with variables selection through LASSO, the second with dimensionless numbers created with the Vaschy-Buckingham theorem. These two data-driven models showed that the maximal power was mostly correlated to electrolyte transfer rates inside MFC chamber and to shear stress at the anode generated by fluid movement. These two major experimental projects also showed that the abundance of Geobacter, an electroactive bacteria, inside the biofilm was widespread in MFCs, but it was not correlated to maximal power. Despite its large abundance, its quantity alone does not entirely explain the performance of a MFC. In order to succeed at MFC scale-up, fundamental research on electroactive biofilms, process engineering and modeling need to be associated and generalized as empirical results and their explanation
22

Lorentz, Eric. "Lois de comportement à gradients de variables internes : construction, formulation variationnelle et mise en œuvre numérique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1999. http://tel.archives-ouvertes.fr/tel-00474024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des observations expérimentales montrent que les modélisations locales ne suffisent pas pour décrire le comportement de matériaux sollicités par de forts gradients des champs mécaniques, qui résultent, par exemple, de la localisation des déformations. On propose ici une démarche constructive qui étend les lois locales de type standard généralisé pour rendre compte des effets de gradients. Elle se fonde, d'une part, sur une méthode d'homogénéisation pour construire une loi à gradients de variables internes à l'échelle du point matériel, et d'autre part, sur une formulation de cette loi à l'échelle de la structure, où les variables sont dorénavant les champs de variables internes. Cette formulation variationnelle du comportement offre un cadre adéquat pour examiner des questions telles que l'existence de solutions au problème d'évolution, le choix des espaces fonctionnels pour les variables internes ou encore le lien entre modèles locaux et modèles à gradients. Par ailleurs, après discrétisation temporelle, la loi de comportement s'exprime comme la minimisation d'une énergie, problème d'optimisation qui est résolu ici au moyen d'un algorithme de lagrangien augmenté. Ce choix permet de confiner les fortes non linéarités – dont le caractère non différentiable de l'énergie – au niveau des points d'intégration, ce qui autorise une introduction aisée de ces développements dans un code de calcul préexistant, le Code_Aster® en l'occurrence. Trois applications permettent alors de mettre en lumière les potentialités de la démarche. Tout d'abord, un modèle élastique fragile illustre son caractère constructif et opérationnel, depuis la construction du modèle jusqu'aux simulations numériques. Ensuite, l'insertion dans ce cadre variationnel des modèles de plasticité à gradients, abondamment employés dans la littérature, démontre le degré de généralité de la formulation. Enfin, son application à la loi de Rousselier pour modéliser un mécanisme de rupture ductile des aciers permet d'examiner l'interaction entre grandes déformations plastiques, d'une part, et comportement non local, d'autre part.
23

Arnold, Gilles. "Identification de lois de comportement pour la simulation de procédés de mise en forme à froid." Paris 6, 2002. http://www.theses.fr/2002PA066479.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Lorentz, Eric. "Lois de comportement à gradients de variables internes : construction, formulation variationnelle et mise en oeuvre numérique." Paris 6, 1999. http://www.theses.fr/1999PA066618.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Hamiti, Karim. "Etude et mise en oeuvre de lois de commande numériques sur un actionneur électropneumatique avec frottements." Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10130.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail presente dans cette these est devolu a la realisation d'un actionneur electro-pneumatique a commande numerique. La reflexion conduite dans ce domaine avait un double objectif: ? d'une part, l'etude du systeme dans l'optique d'une commande par micro-controleur. Ceci nous a permis de revoir un ensemble de solutions possibles et d'en choisir la plus adequate, tout en gardant a l'esprit l'aspect implementation et le cahier des charges assigne. ? d'autre part, de tester experimentalement des algorithmes de commande lineaire robustes, sur un systeme electro-pneumatique fortement non lineaire. Cependant, nous avons constate que la presence du frottement de collage dans la partie mecanique du banc, a des consequences nefastes sur les performances statiques de l'asservissement. Pour resoudre ce probleme, nous avons propose une solution aisee a implementer, tout en conservant la methode de synthese du regulateur par placement de poles aussi bien que la structure du pid. Enfin, a la vue des resultats experimentaux, nous concluons que l'application des lois de commande lineaires basees sur une modelisation entree-sortie convient pour les verins pneumatiques de petites courses
26

Lorentz, Éric. "Lois de comportement à gradients de variables internes : construction, formulation variationnelle et mise en oeuvre numérique /." Cachan : Laboratoire de mécanique et technologie, 1999. http://catalogue.bnf.fr/ark:/12148/cb37056863x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Ksontini, Mohamed. "Mise en oeuvre de lois de commande basées sur des multi-modèles continus de type Takagi-Sugeno." Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/010633b8-054b-44a7-a83b-2bf46a1dfd68.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce mémoire, l'étude de la stabilisation des approches multi modèles est considérée. Nous avons essayé de faire un lien entre l'approche multi modèles adaptatif et l'approche TS. La proposition d'une nouvelle architecture de commande pour l'approche adaptative a permis de stabiliser la boucle fermée complète. Une comparaison de robustesse sur le classique pendule inversé a montré les caractéristiques de l'approche. Nous avons proposé dans la troisième partie des nouvelles conditions de stabilisation des modèles flous de type TS qui permettent de réduire le nombre de LMI et ou de réduire le conservatisme des conditions déjà proposées. L'intérêt étant double, d'une part obtenir des conditions LMI faciles à mettre en ouvre pour les systèmes ayant un nombre de règles important, d'autre part améliorer les résultats issus de la littérature. L'ensemble des ces résultats est basé principalement sur l'utilisation du lemme d'élimination. Une première illustration de ces conditions est faite sur un système TORA. Enfin l'application des ces résultats sur un système de mélange de liquides qui servira d'étude de dimensionnement pour un projet de prototype a donné des résultats satisfaisants en régulation et poursuite
In this document we dealt with the stabilization of the multi models approaches. We tried to make a link between the adaptive multi models approach and the TS approach. A new control architecture for the adaptive approach has been proposed allowing the stabilisation of the whole closed loop. A comparison about the robustness for the classical inverted pendulum shows the features of this approach. In the second part, we proposed new stabilisation conditions of TS fuzzy models allowing to reduce the number of LMI and or to reduce the conservatism of the conditions. With such conditions, we get some easy LMI conditions for systems having an important number of rules, and we also improve results given in the literature. These results are based mainly on the use of the elimination lemma. A first illustration of these conditions is carried out on a TORA system. Finally the application of these conditions on a mixture liquids system that will be useful in dimensioning a project of prototype has given good results
28

Lapp, Alain. "Synthese, conformation et interactions de molecules lineaires et ramifiees de polydimethylsiloxane : mise en evidence de lois d'universalite." Université Louis Pasteur (Strasbourg) (1971-2008), 1987. http://www.theses.fr/1987STR13108.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Synthese du polydimethylsiloxane etudie et etude de l'hydrosilation se produisant au cours de la reticulation en solution semidiluee, relation entre la longueur de correlation et la concentration. Interactions a trois corps dans le styrene, solvant theta du pdmsi
29

Lapp, Alain. "Synthèse, conformation et interactions de molécules linéaires et ramifiées de polydiméthylsiloxane mise en évidence de lois d'universalité /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37607020p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Gibelin, Anne-Laure. "Cycle du carbone dans un modèle de surface continentale : modélisation, validation et mise en oeuvre à l'échelle globale." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00164054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
ISBA-A-gs est une option du modèle de surface continentale du CNRM, ISBA, qui simule les échanges de carbone entre la biosphère terrestre et l'atmosphère. Au cours de cette thèse, le modèle est utilisé pour la première fois à l'échelle globale en mode forcé. Plusieurs simulations globales sont réalisées pour évaluer la sensibilité des flux turbulents et du LAI à un doublement de CO2 et au changement climatique prévu pour la fin du XXIe siècle.
Une nouvelle option du modèle, nommée ISBA-CC, est aussi développée afin de simuler de manière plus réaliste la respiration de l'écosystème, en distinguant la respiration autotrophe et la respiration hétérotrophe.
La validation de la dynamique de la végétation et des flux de carbone échangés, à la fois à l'échelle globale à l'aide de données satellitaires, et à l'échelle locale sur 26 sites de mesure du réseau FLUXNET, montre que le modèle de surface est suffisamment réaliste pour être couplé à un modèle de circulation générale, afin de simuler les interactions entre la surface continentale, l'atmosphère et le cycle du carbone.
31

Diagne, Cheikh Tidiane. "La mise en évidence de l'assemblage et de la recombinaison XerCD-dif à l'échelle de la molécule unique." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2126/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les recombinases à tyrosine sont bien connues pour catalyser des recombinaisons spécifiques de site de l'ADN des bactéries, des archées et des eucaryotes. Chez les bactéries, ces recombinases sont impliquées dans l'intégration programmée, l'excision ou l'inversion de segments d'ADN. Les recombinases XerC et XerD sont des recombinases à tyrosine très conservées et dévouées à la recombinaison du site dif localisé dans le domaine ter des chromosomes bactériens circulaires. Le système XerCD-dif résout les dimères de chromosomes en monomères avant la ségrégation et est donc requis pour une ségrégation correcte des chromosomes frères dans les cellules filles. Pour cela, son activité est soumise à un contrôle précis durant le cycle bactérien. Chez Escherichia coli, l'activité de XerCD-dif est contrôlée par la protéine de division cellulaire FtsK. En l'absence de FtsK, XerC effectue le premier échange de brins, mais la jonction de Holliday ainsi formée est résolue en reformant le substrat de départ. En la présence de FtsK, XerD interagit avec le sous-domaine gamma de FtsK et effectue le premier échange de brins. La jonction de Holliday ainsi formée est résolue par XerC. Cependant, la façon dont cette translocase à ADN contrôle l'activité de recombinaison de XerCD-dif n'est pas bien comprise mais implique un contrôle de l'assemblage de la synapse de recombinaison. Afin de mieux comprendre le mécanisme de la recombinaison XerCD-dif et son contrôle par FtsK, nous avons étudié l'assemblage et l'activité des complexes de recombinaison par une méthode molécule unique : le Tethered Particle Motion. Dans un premier temps, nous avons montré que FtsK n'est pas requise dans la formation de la synapse XerCD-dif. Cependant, elle augmente le taux de formation des synapses. Nous n'avons détecté aucune recombinaison en l'absence du sous-domaine gamma de FtsK mais ce dernier est suffisant pour activer la recombinaison dans les synapses formées. La fixation de XerD seule à l'ADN entraine un changement structural de l'ADN tandis que XerC seule n'a aucun effet décelable sur l'ADN. Ces résultats suggèrent que seule la synapse " XerD-ready " est formée et que XerD est un leader durant l'assemblage de la synapse
Tyrosine recombinases are well known to catalyse site-specific DNA recombination in bacteria, archeae and eukaryotes. In bacteria, these recombinases are extensively used for programmed integration, excision and inversion of DNA segments. XerC and XerD are highly conserved tyrosine recombinases devoted to recombine dif sites, located in the terminal domain of circular bacterial chromosomes. XerCD-dif recombination resolves chromosome dimers to monomers before segregation and is thus required for the faithful segregation of sister chromosomes in daughter cells. To do so, its activity is precisely tuned and controlled during the bacterial cell cycle. In Escherichia coli, XerCD-dif activity is controlled by FtsK. In the absence of FtsK, XerC mediates the first strand exchange but the Holliday junction formed is resolved back to substrate. In its presence, XerD interacts with the gamma subdomain of FtsK and mediates the first strand exchange. The Holliday junction is then resolved by XerC. However, the way this septal DNA translocase acts on XerCD-dif recombination is not completely understood but involves the control of the assembly of the synaptic complex where recombination takes place. To understand the XerCD-dif recombination and its FtsK-mediated control, we studied the assembly and the activity of the recombination complexes on single DNA molecules using the Tethered Particle Motion method. In a first part, we demonstrated that FtsK is no needed for the synapse assembly but increases its formation rate. No recombination was detected within these synapses in the absence of the gamma subdomain of FtsK. In a second part, we showed that the gamma subdomain of FtsK is sufficient to activate recombination within these synapses. We also showed that XerD but not XerC leads to a DNA structural modification. Taken together, our results suggest that only the XerD-ready synapse is formed and XerD is a leader during the synapse assembly
32

Kruszewski, Alexandre. "Lois de commande pour une classe de modèlesnon linéaires sous la forme Takagi-Sugeno :Mise sous forme LMI." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2006. http://tel.archives-ouvertes.fr/tel-00128986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se focalise sur une classe particulière de modèles non linéaires appelés
modèles Takagi-Sugeno. Même s'ils sont issus de l'approche historique de la logique
floue, ils peuvent s'interpréter comme une collection de modèles linéaires interconnectés
par des fonctions non linéaires.
L'étude de la stabilité de ces types de modèles fait appel, dans la grande majorité des cas,
à la méthode directe de Lyapunov avec une fonction de type quadratique. Celle-ci
permettant écrire facilement des conditions sous la forme de contraintes LMI. Les
conditions obtenues ne sont que suffisantes.
De nombreux résultats sont disponibles aujourd'hui pour ce type de modèles. Les
premiers travaux ne traitaient que de la stabilité et de stabilisation sans critères de
robustesse ou notions de performances. Depuis des extensions à des retours d'état avec
observateur, à des modèles sous forme descripteur, à des modèles incertains, à des
modèles à retard à des modèles incertains à retard, à des retours de sortie dynamiques,...
existent. Des critères de performances ont aussi été considérés comme la minimisation
d'un critère quadratique, D-stabilité, Hinf,...
En dépit de cette multitude de résultats, il reste un certain nombre de problèmes à
résoudre. L'approche par fonction de Lyapunov quadratique semble avoir atteint ces
limites. Les conditions obtenues étant seulement suffisantes le principal problème est de
savoir que faire si elles sont trop restrictives ? Comment relâcher un problème LMI qui
n'a pas de solution ? Le but de ce mémoire est de sortir du cadre des fonctions de
Lyapunov quadratiques en proposant des résultats moins conservatifs que ceux rencontrés
dans la littérature..
33

Hannoun, Hala. "Etude et mise en oeuvre de lois de commande de la machine à réluctance variable à double saillance." Paris 11, 2008. http://www.theses.fr/2008PA112199.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire traite la mise en œuvre de la machine à réluctance variable dans les entrainements à vitesse variable. Afin de rendre cette machine compétitive dans différentes applications industrielles, nous nous sommes intéressés à son contrôle (courant, couple, vitesse) selon les deux modes d’alimentation : conduction discontinue et conduction continue. Une part importante de ce travail a été consacrée à la réalisation de nombreux essais expérimentaux. Les caractéristiques électromagnétiques (flux, couple) du prototype étudié sont déterminées à partir d’une modélisation numérique et ont été validées sur le banc expérimental. De ces données a découlé une expression analytique de l’inductance en vue de développer un nouveau régulateur de courant PI à gains variables : l’adaptation des gains, selon la valeur du courant de phase et de la position du rotor, permet de compenser la variation de l’inductance et de garder une dynamique bien définie de la boucle fermée du courant. Deux méthodes pour contrôler le couple sont proposées. La première, considérant la valeur instantanée du couple, permet de réduire considérablement les ondulations de couple mais nécessite un régulateur de courant à bande passante élevée. La deuxième qui s’appuie sur la valeur moyenne du couple, est basée sur des cartographies de paramètres de réglage optimaux. Pour un même dimensionnement du système (alimentation-machine-convertisseur), les performances à haute vitesse sont considérablement accrues grâce à l’adoption du mode conduction continue: le couple se voit augmenté à un niveau permettant de maintenir la puissance maximale constante sur une très large plage de vitesse
The present study concerns the implementation of the switched reluctance machine in variable speed motor drives. In order to make this machine more competitive in various industrial applications, we were interested in its control (current, torque, speed) according to both conduction types: discontinuous and continuous modes. An important part of this work was dedicated to realise the experimental tests. The prototype electromagnetic characteristics (flux, torque) are obtained by numerical calculation and are validated on the test bench. From these data, an analytical expression of the inductance is proposed for the development of a new PI current regulator with variable gains: the gain adaptation, with respect to the phase current and the rotor position, compensates the inductance variation and keeps a well defined dynamic of the current closed loop. Two methods to regulate the torque are proposed. The first one, based on the instantaneous value of the torque, reduces considerably the torque ripple but requires a high bandwidth current regulator. The second one, which deals with the torque mean value, is based on optimal parameters maps. For the same sizing of the system (power supply-machine-converter), the high speed performances are considerably increased due to the continuous conduction mode: the torque is increased to a level that allows keeping the maximal power constant over a wide speed range
34

CADIOU, JEAN-CHARLES. "Etude et mise en uvre de lois de commandes sur un actionneur electrique avec jeux et frottements secs." Paris 6, 1994. http://www.theses.fr/1994PA066071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette these est l'etude de lois de commande permettant de compenser les effets perturbateurs de jeux mecaniques en presence de frottements secs dans un actionneur electrique. Nous avons constate que la presence de jeux importants dans un systeme, complique la synthese d'une loi de commande. Le support experimental de ce travail est un actionneur integre possedant plusieurs moteurs en entree. Cette particularite, nous a permis d'appliquer des commandes cooperatives utilisant plusieurs moteurs travaillant en differentiel. Apres une introduction generale du probleme, nous avons propose differentes modelisations du systeme, ainsi qu'une representation originale de l'effet du jeu sur le couple transmis. L'etude des methodes d'identification nous a permis de comparer trois approches d'estimation qui presentaient chacune un interet. A partir des estimations des parametres nous avons applique experimentalement les lois de commande etudiees theoriquement. L'estimation des parametres nous a aussi permis d'appliquer au systeme une compensation des effets des frottements et de l'inertie de facon fixe et adaptative avec succes. Les differentes approches de loi de commande que nous avons considerees pour la compensation des imperfections sont: l'approche par mode de glissement ; l'approche energetique ; l'approche cooperative. Enfin, avant la conclusion generale, nous presentons les resultats experimentaux obtenus, pour l'application des differentes lois de commande. Ainsi l'approche par la commande par mode glissant a montre un comportement robuste face aux jeux et aux frottements. L'approche energetique nous a permis de developper la commande cooperative qui presente aussi une bonne robustesse face aux jeux
35

Kruszewski, Alexandre. "Lois de commande pour une classe de modèles non linéaires sous la forme Takagi-Sugeno : mise sous forme LMI." Valenciennes, 2006. https://ged.uphf.fr/nuxeo/site/esupversions/47cd2183-0e4c-4bc8-b7b8-591ffb66d847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se focalise sur une classe particulière de modèles non linéaires appelés modèles Takagi-Sugeno. Même s’ils sont issus de l’approche historique de la logique floue, ils peuvent s’interpréter comme une collection de modèles linéaires interconnectés par des fonctions non linéaires. L’étude de la stabilité de ces types de modèles fait appel, dans la grande majorité des cas, à la méthode directe de Lyapunov avec une fonction de type quadratique. Celle-ci permettant écrire facilement des conditions sous la forme de contraintes LMI. Les conditions obtenues ne sont que suffisantes. De nombreux résultats sont disponibles aujourd’hui pour ce type de modèles. Les premiers travaux ne traitaient que de la stabilité et de stabilisation sans critères de robustesse ou notions de performances. Depuis des extensions à des retours d’état avec observateur, à des modèles sous forme descripteur, à des modèles incertains, à des modèles à retard à des modèles incertains à retard, à des retours de sortie dynamiques,… existent. Des critères de performances ont aussi été considérés comme la minimisation d’un critère quadratique, D-stabilité, Hinf,… En dépit de cette multitude de résultats, il reste un certain nombre de problèmes à résoudre. L’approche par fonction de Lyapunov quadratique semble avoir atteint ces limites. Les conditions obtenues étant seulement suffisantes le principal problème est de savoir que faire si elles sont trop restrictives ? Comment relâcher un problème LMI qui n’a pas de solution ? Le but de ce mémoire est de sortir du cadre des fonctions de Lyapunov quadratiques en proposant des résultats moins conservatifs que ceux rencontrés dans la littérature
This PhD thesis deals with a particular class of nonlinear models called Takagi-Sugeno. In spite of their fuzzy background, they can be seen as a collection of linear models blended by some nonlinear functions. The stability analysis of this kind of models is investigated through the direct Lyapunov method and using a quadratic function. This choice is due to its capability to cope with LMI constraints. These conditions are only sufficient. Many results are available for these models. The first works were dealing only with stability and stabilization without any robustness criterion or performances indexes. Extensions are available on state feedback with observer, descriptor models, uncertain models, models with delays, dynamic output feedbacks… Some performances criteria are also considered as the minimization of quadratic criterion, D-Stability, Hinf…In spite of these results, some problems need to be solved. The quadratic Lyapunov function approach seems to have reached its limit. Considering that the conditions are only sufficient, what can be done if they are too restrictive? How to relax a LMI problem which has no solution? The goal of this thesis is to quit the quadratic framework by proposing less conservative results than those met in the literature
36

Zehani, Mongia. "Optimisation du procédé polyol pour la synthèse de nanoparticules d'oxyde de zinc : mise à l'échelle du procédé et applications photovoltaïques." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132044/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Grâce aux développements des méthodes de synthèse et de caractérisation, les nanomatériaux constituent un champ d'investigation de plus en plus actif et attractif. Cette thèse s'attache à étudier un procédé de synthèse de nanoparticules d’oxyde de zinc par voie polyol. Ce procédé a l’avantage de fournir une large variété morphologique de particules présentant une bonne qualité cristalline. Dans cette thèse, nous montrons qu’en variant les paramètres de synthèse nous pouvons moduler la taille, la distribution de taille et la morphologie des nanoparticules pour les obtenir en forme de nanosphères aussi fines que 6 nm ou des nanofils aussi longs que600 nm. Notre étude systémique a porté sur un ensemble de paramètres qui contrôlent la réaction d’hydrolyse forcée incluant la stoechiométrie, la température, la nature du polyol mais également l’agitation, l’injection des réactifs et l’activation par ultra sons du milieu. Nous montrons que la forme des nanoparticules est déterminée par la compétition entre les réactions de croissance de différentes faces du cristal d’oxyde de zinc. Notre étude a permis aussi de comparer différents dispositifs de mélange comme le réacteur du laboratoire, le T de mélange et les jets libres. Par ailleurs, pour produire en masse ces nano objets nous avons développé une stratégie originale pour comprendre l’effet du mélange sur la taille des nanoparticules. Notre approche s’appuie sur la résolution numérique des équations de Navier-Stokes et la corrélation entre les profils d’énergie turbulente dissipée et la taille des nanoparticules mesurée expérimentalement. L’application au cas spécifique de l’oxyde de zinc nous a permis de produire jusqu’à ~50 g de nanoparticules par Batch. Ces nanoparticules ont par la suite été incorporées comme matériau semi conducteur dans des cellules photovoltaïques à colorant préparées à l’École Nationale Supérieure de Chimie de Paris. En effet, la richesse morphologique de ZnO obtenu par voie polyol laisse présager une bonne adsorption du colorant à sa surface. Nos résultats montrent que les rendements de photoconversion dépendent aussi bien de la morphologie que de la taille. Les meilleures cellules élaborées dans cette thèse ont un rendement qui avoisine 5.3 %
Thanks to developments in synthesis methods and characterization techniques, nanomaterials research field is increasingly active and attractive. This thesis aims to investigate the polyol process for zinc oxide nanoparticles synthesis. Indeed, this method has the advantage of providing a wide variety of particle morphology with a good crystalline quality. In this thesis, we show that by varying the synthesis conditions we can adjust the size, the size distribution and the morphology of nanoparticles to obtain either shaped nanospheres as small as 6 nm or nanowires as long as 600 nm. Our systemic study focused on a set of parameters that control the forced hydrolysis reaction including stoichiometry, temperature, nature of the polyol but also mixing, injection of reagents and ultrasound activation. We show that the shape of the nanoparticles is determined by the competition between growth rates of different zinc oxide crystal facets. Our study also compared different mixing devices such as laboratory reactor, T- mixer and impinging jets. More over, to mass produce zinc oxide nanoparticles, we developed an original strategy to understand the effect of mixing on nanoparticle size. In our approach, we correlate the turbulent energy dissipated as obtained from Computation Fluid Dynamics with theme asured nanoparticle size. The application to the specific case of zinc oxide has allowed us to produce sample aliquots of ~50 g per Batch. These nanoparticles were subsequently incorporated into dye-sensitized solar cells as semi conducting material at the École Nationale Supérieure de Chimie de Paris. Indeed, the morphological richness of the zinc oxide produced via polyol process suggests good adsorption of the dye on their surfaces. Our results show that the photoconversion efficiencies depend both on the morphology and the size. Our best photoconversion efficiency approaches 5.3%
37

Lasri, Abdel-Halim. "Conception, élaboration et mise à l'essai d'un simulateur interactif permettant une approche modélisante, application aux lois de la génétique mendélienne." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq26801.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Denideni, Yahia. "La mise en oeuvre de la loi n° 84-17 du 7 juillet 1984 relative aux lois de finances algériennes." Paris 10, 1999. http://www.theses.fr/1999PA100049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette these consiste a mettre en lumiere la pratique des dispositions de la loi nʿ 84-17 du 7 juillet 1984 relative aux lois de finances algeriennes, qui represente l'ere de la legislation financiere de l'algerie souveraine. Cette pratique se traduit par l'examen des principes budgetaires a travers toutes les lois de finances adoptees depuis 1984. Elle se traduit egalement par le mode d'adoption du budget algerien, son execution et le controle de sa mise en exercice. Pour debattre ce sujet, un historique de l'evolution du droit budgetaire national etait necessaire a relater ; depuis la colonisation jusqu'au lendemain de l'independance, afin de mieux apprehender par la suite la question de la genese de la loi du 7 juillet 1984. C'etait ainsi que l'on a etabli le mimetisme juridique entre la loi organique algerienne et la loi organique francaise relatives aux lois de finances. Tout au long de cette these, une analyse personnelle est effectuee pour maitriser la question de la mise en oeuvre de la loi du 7 juillet 1984. Par consequent, la bibliographie d'appui n'a ete principalement que celle relative aux textes officiels.
39

Grousson, Frédéric. "Définition et mise en oeuvre de lois de commande à modèle interne pour un moteur thermique à injection directe d'essence." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT056H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce mémoire traite de l'amélioration du contrôle-moteur, pour un moteur thermique à injection directe, par utilisation de commandes à modèle interne. Cette étude est réalisée dans le but d'optimiser le fonctionnement du moteur et de diminuer ses émissions polluantes, notamment durant les phases transitoires. L'orientation vers des commandes à modèle interne s'explique par la nécessité d'une commande d'une part robuste pour faire face à la disparité des paramètres moteur, et d'autre part, facile à calibrer afin de diminuer le temps de mise au point. La première partie donne un aperçu du fonctionnement du moteur thermique et présente les éléments de modélisation en vue de la commande. La deuxième partie aborde la mise en place des algorithmes de régulation. Tout d'abord, la commande d'admission des gaz dans le cylindre utilise la théorie des couplages linéarisants associés à la commande prédictive. Ensuite, la commande en couple des ordres du conducteur est réalisée par une inversion statique utilisant la matrice jacobienne. Enfin, une commande prédictive simplifiée permet de résoudre les problèmes de régulation de ralenti et d'asservissement du régime moteur. Une dernière partie est consacrée aux tests "temps réel" et au prototypage rapide. La plupart des résultats de simulation sont ensuite validés par des essais expérimentaux sur un véhicule prototype
This study has been achieved in order to improve the direct injection engine control, by using internal model control strategies. Its aim is to optimise the engine performance and to decrease the polluting emissions through a better dynamic control. The use of internal model controls brings robustness in order to face the engine parameter disparity and allows great improvements in the control calibration thanks to a shorter tuning time. The first part gives the outlines of thermic engine operating and focuses on modelization with the final control in view. The second part tackles the implementation of regulation algorithms. Firstly,the air path control uses the state feedback linearization mixed with the predictive control. Secondly, the torque control of the driver's requests is performed with a static inversion using the Jacobian matrix. Finally, a simplified predictive control makes it possible to solve idle speed regulation problems. The last part is devoted to real time and fast prototyping tests. The main simulation results have been validated through experimental tests on a direct injection car
40

Loi, Mi Lung-Somarriba Béatrice. "Etude des mécanismes mis en jeu dans la cristallisation de la glycine : contrôle de la distribution granulométrique et mise à l'échelle." Paris 6, 2003. http://www.theses.fr/2003PA066195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Gschwind, Michel. "Etude et mise en oeuvre de lois de regulation des boucles de chauffage : application aux batiments de petites et moyennes dimensions." Paris, ENMP, 1987. http://www.theses.fr/1987ENMP0078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Etude bibliographique permettant de degager les fonctionnalites necessaires d'une regulation moderne. Etude experimentale de la regulation de boucles de chauffage a eau chaude. Simulation du comportement de la boucle de chauffage couplee a un modele fin du batiment. Mise en oeuvre pratique de l'algorithme d'un modele de commande simple
42

Gschwind, Michel. "Etude et mise en oeuvre de lois de régulation des boucles de chauffage application aux bâtiments de petites et moyennes dimensions /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376056247.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Malverti, Luce. "Interaction morphologie-transport dans les rivières : de l'échelle du grain à celle de la rivière." Paris, Institut de physique du globe, 2010. http://www.theses.fr/2010GLOB0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dynamique des rivières dépend d'un rétro-contrôle complexe entre morphologie, écoulement et transport. L'objectif général de ce travail de thèse est de comprendre le fonctionnement de ce rétro-contrôle dans le cas des rivières graveleuses dont la morphologie est contrôlée, au premier ordre, par le transport par charriage. Nous avons dans un premier temps étudié l'influence de la nature de l'écoulement sur ce couplage, ce qui nous a permis de mettre en évidence le fait que la morphodynamique des rivières est déterminée avant tout par l'interaction morphologie-transport, la nature de l'écoulement ne jouant qu'un rôle secondaire. Ce constat se vérifie à différentes échelles d'observation, de l'échelle de l'évolution du profil longitudinal de la rivière à celle du grain. La seconde partie de ce travail, consacrée à l'étude de la formation des chevrons, a permis de préciser la dynamique du couplage entre morphologie du lit et transport de sédiment. Nos résultats soulignent en particulier l’importance de l’effet de relaxation lié au fait que le flux de sédiment ne s'adapte pas instantanément à un changement de topographie. Cet effet de relaxation est un ingrédient physique indispensable pour décrire l'interaction morphologie-transport en rivière puisqu’il contrôle la sélection de la longueur d'onde des morphologies qui se développent sur le lit d’une rivière. Malgré son importance, cet effet de relaxation est ignoré par la majorité des lois de transport par charriage proposées dans la littérature. L’essentiel des lois disponibles supposent en effet que le flux de sédiments est une fonction locale de la contrainte exercée par la rivière sur son lit. Ce constat nous a naturellement conduit à nous pencher, dans la troisième partie de ce manuscrit, sur l’origine physique de cet effet de relaxation et sur la façon de l’introduire dans les modèles de transport par charriage. Pour ce faire, nous avons étudié le transport par charriage à l'échelle du grain, dans le cadre d’une approche expérimentale et en nous appuyant sur un modèle d’érosion-déposition en écoulement laminaire proposé par Charru (2004). Les résultats expérimentaux nous ont permis d’étendre ce modèle au cas du transport par charriage en écoulement turbulent
River dynamics involves complex feedbacks between channel morphology, water flow and sediment transport. The aim of this work is to understand these feedbacks for gravel bed rivers, in which morphology channel is entirely controlled by bedlaod transport. In the first part, we investigated the influence of flow regime on the river morphodynamics and showed that the latters are primarily driven by the interaction between morphology and bedlaod transport, and that flow regime is only secondary. We confirmed this for different scales from the evolution of the longitudinal profile to the grain scale. The second part of this work was devoted to investigation of bedforms in order to understand the coupling between morphology and sediment transport. In particular, our results show the importance of a relaxation effect, i. E. Sediment flux does not immediately adapt to varying topography. This relaxation effect is an important physical parameter to describe the morphology-transport interactions in a river and it is now being recognized as an important effect controlling the developpment of bedforms. However, despite its importance, the majority of bedload transport laws proposed in the literature ignore this relaxation effect. Theses laws implicitly consider particle flux to be in equilibrium with the shear stress. In order to overcome this limitation, in the third part of this work, we focused on the physical origin of this relaxation effect and how to develop a model of bedload transport which accounts of this effect. To do this, we studied the bedload transport at the grain scale through an experimental investigation and analysed the experimental results within the frame of the erosion-deposition model proposed by Charru (2006)
44

Gonçalves, Maria Augusta. "Mise au point d'un logiciel général pour les lois de mélange des matériaux composites en vue de l'étude de leurs propriétés électromagnétiques." Vandoeuvre-les-Nancy, INPL, 1995. http://docnum.univ-lorraine.fr/public/INPL_T_1995_GONCALVES_M_A.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail présente une méthodologie pour étudier les lois de mélange des matériaux composites, en vue de la détermination de leurs propriétés électromagnétiques. La première partie présente un recueil des modèles existants pour décrire les propriétés diélectriques des mélanges, ainsi que les théories qui décrivent le phénomène de la percolation et les études à propos de la variation de la permittivité en fonction de la fréquence. Tous les modèles qui décrivent ces études ont été introduits dans un logiciel, qui accomplit des analyses selon les types des données disponibles: il peut effectuer une analyse comparative des lois de mélange appliquées à un système donné, ou bien calculer la permittivité diélectrique d'une des phases si elle n'est pas connue, ou encore calculer les paramètres critiques de la percolation et aussi étudier la variation de la permittivité en fonction de la fréquence. Ce logiciel présente une interface graphique conviviale, et un guide qui permet à l'utilisateur d'avoir accès aux renseignements théoriques à partir desquels les conclusions ont été dégagées. Ayant comme base ce logiciel, les lois de mélange ont été appliquées à plusieurs systèmes, tels que des émulsions eau-huile et des systèmes poudre-air. Les résultats obtenus ont permis de vérifier les modèles les plus adaptés à chaque type de système, ainsi que de vérifier leurs comportements en fonction de la fréquence et d'effectuer des études des paramètres qui donnent des éléments pour la prévision du seuil de la percolation
45

Amor, Hanen. "Approche variationnelle des lois de Griffith et de Paris via des modèles non-locaux d'endommagement : étude théorique et mise en oeuvre numérique." Phd thesis, Université Paris-Nord - Paris XIII, 2008. http://tel.archives-ouvertes.fr/tel-00352989.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est l'étude théorique et la mise en oeuvre numérique de l'approche variationnelle des lois de Griffith (rupture fragile) et de Paris (fatigue) pour la propagation de fissures. Cette approche est basée sur un principe de moindre énergie. L'énergie totale d'une structure est la somme de l'énergie élastique et d'un potentiel de dissipation. En rupture fragile avec une énergie de surface de type Griffith, ce potentiel est proportionnel à la surface de l'ensemble des fissures. La propagation de fissures par fatigue dans le cas d'une lois de type Paris est obtenue en utilisant comme potentiel de dissipation une fonction puissance de la surface de fissuration.
La régularisation de ces énergies en vue d'une implémentation numérique amène à des modèles d'endommagement non-locaux (i.e. ceux dont l'énergie contient des termes avec gradient d'endommagement).
Dans un premier temps, à travers l'exemple unidimensionnel de la barre en traction, une étude comparative est faite sur différentes familles de modèles d'endommagement. Nous avons mis en évidence que ces modèles d'endommagement se comportent différemment en termes de minima-locaux. Il s'avère que la relation contrainte-déformation ne suffit pas à définir une loi de comportement mais qu'une autre relation reliant la stabilité des solutions homogènes à la taille du domaine s'avère tout aussi essentielle.
Nous avons ensuite éliminé la symétrie de comportement en traction-compression pour prendre en compte la non interpénétration des lèvres des fissures. Ce résultat est obtenu en ne faisant porter l'endommagement que sur la partie en traction et en cisaillement de l'énergie de déformation.
Enfin, nous avons présenté la formulation variationnelle de la fatigue de type Paris que nous avons implémenté numériquement en utilisant des modèles d'endommagement non-locaux.
Des résultats numériques sont présentés et discutés aussi bien dans le cadre de la rupture fragile que dans celui de la rupture par fatigue.
46

Amor, Hanen. "Approche variationnelle des lois de Griffith et de Paris via des modèles non-locaux d'endommagement : étude théorique et mise en oeuvre numérique." Phd thesis, Paris 13, 2008. http://www.theses.fr/2008PA132035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est l'étude théorique et la mise en oeuvre numérique de l'approche variationnelle des lois de Griffth (rupture fragile) et de Paris (fatigue) pour la propagation de fissures. Cette approche est basée sur un principe de moindre énergie. L'énergie totale d'une structure est la somme de l'énergie élastique et d'un potentiel de dissipation. En rupture fragile avec une énergie de surface de type Griffth, ce potentiel est proportionnel à la surface de l'ensemble des fissures. La propagation de fissures par fatigue dans le cas d'une lois de type Paris est obtenue en utilisant comme potentiel de dissipation une fonction puissance de la surface de fissuration. La régularisation de ces énergies en vue d'une implémentation numérique amène à des modèles d'endommagement non-locaux (i. E. Ceux dont l'énergie contient des termes avec gradient d'endommagement). Dans un premier temps, à travers l'exemple unidimensionnel de la barre en traction, une étude comparative est faite sur différentes familles de modèles d'endommagement. Nous avons mis en évidence que ces modèles d'endommagement se comportent différemment en termes de minima-locaux. Il s'avère que la relation contrainte-déformation ne suffi t pas à définir une loi de comportement mais qu'une autre relation reliant la stabilité des solutions homogènes à la taille du domaine s'avère tout aussi essentielle. Nous avons ensuite éliminé la symétrie de comportement en traction-compression pour prendre en compte la non interpénétration des lèvres des fissures. Ce résultat est obtenu en ne faisant porter l'endommagement que sur la partie en traction et en cisaillement de l'énergie de déformation. Enfn, nous avons présenté la formulation variationnelle de la fatigue de type Paris que nous avons implémenté numériquement en utilisant des modèles d'endommagement non-locaux. Des résultats numériques sont présentés et discutés aussi bien dans le cadre de la rupture fragile que dans celui de la rupture par fatigue;
47

Ouar, Nassima. "Élaboration de nanofils magnétiques de cobalt-nickel par voie polyol : mise à l'échelle du procédé et consolidation par le procédé frittage flash SPS." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif principal de ce travail est de produire des pièces massives nanostructurées à partir des nanomatériauxd’alliages anisotropes à base des éléments de transition 3d (Co et Ni). Afin d’utiliser ces nanomatériaux àl’échelle industrielle, nous avons extrapolé la méthode de synthèse de l’échelle du laboratoire (procédé polyol) àl’échelle pilote. Tout d’abord, nous avons montré qu’en variant les paramètres de synthèse à l’échelle delaboratoire, nous pouvons contrôler non seulement la morphologie mais aussi la taille et la distribution de tailledes nanoparticules. En effet, des sphères de diamètre 10 nm et des nanofils de longueur 260 nm et de diamètre 7nm ont été obtenus pour la stoechiométrie Co80Ni20. Les paramètres clés de cette étude sont la concentration dela soude, le taux de l'agent nucléant, la vitesse d’agitation et le champ magnétique externe appliqué. Le choix dusystème de mélange approprié pour une géométrie du réacteur donnée a également un rôle important dans lecontrôle et la maîtrise de la taille et la forme des nanofils. Avec une turbine Rushton à six pâles droites, nousavons obtenu des nanofils plus courts avec de plus petites têtes coniques et une forte coercitivité. Par ailleurs, larésolution numérique des équations de Navier-Stocks qui gouvernent le transport de matière et de la quantité demouvement dans un fluide agité a permis d’obtenir une corrélation entre les profils d’énergie turbulente dissipéeet la taille des nanoparticules mesurée expérimentalement. Les études magnétiques montrent que les propriétésmagnétiques des nanofils sont intimement liées à leur forme et à leur taille. La synthèse à grande échelle apermis de produire 25 grammes de nanofils de cobalt-nickel par batch. Grâce au procédé de frittage SPS, nousavons élaboré avec succès des matériaux massifs nanostructurés à partir de la poudre formée des nanofils. Alorsque les nanofils présentent des champs coercitifs élevés et des aimantations relativement faibles, les matériauxdenses consolidés par SPS possèdent les caractéristiques d’un ferromagnétisme doux (faible champ coercitif)mais une aimantation à saturation élevée proche de celle attendue. Des champs coercitifs meilleurs sont obtenusavec le matériau dense nanostructuré élaboré en présence d’un champ magnétique permanent. Ce champmagnétique a permis un meilleur alignement des nanofils au cours du frittage. Le comportement mécanique desmatériaux nanostructurés dépend essentiellement de la taille des grains. La dureté et la résistance mécaniqueaugmentent quand la taille des grains diminue conformément à la relation de Hall-Petch
The main objective of this PhD work is to produce nanostructured bulk from anisotropic nanomaterials alloysbased on 3d transition elements (Co and Ni). For using these nanomaterials on an industrial scale, we haveextrapolated the synthesis method (polyol process) from laboratory scale to pilot scale. First, we showed that byvarying the parameters synthesis in laboratory scale we can control not only the morphology but also the size andthe size distribution of the nanoparticles. Indeed, spheres with diameter of 10 nm and nanowires with meanlength of 260 nm and a diameter of 7 nm were obtained for a stoichiometry Co80Ni20. The key parameters of thissynthesis are the concentration of the sodium hydroxide, the nucleation rate, the agitation and the appliedexternal magnetic field. The choice of suitable mixing system for a given geometry of the reactor also has animportant role for the control of the size and shape of the nanowires. When a six-bladed Rushton turbine wasused, shorter nanowires with unconventional small conical-shaped heads and a higher coercive field wereobtained, confirming a strong relationship between flow patterns and nanowire growth. Moreover, numericalresolution of Navier-Stocks equations that govern the transport of matter and quantity of movement in anagitated fluid allowed us to obtain a correlation between turbulent energy dissipation profiles and nanoparticlesize measured experimentally. Magnetic studies revealed a narrow relationship between the magnetic propertiesand the shape of nano-objects. The large-scale synthesis has produced 25 grams of cobalt-nickel nanowires perbatch. Thanks to the SPS sintering process, we have successfully elaborated nanostructured bulk materials.Whereas nanofils show high coercive field and low saturation magnetization, dense materials produced at hightemperatures behave as soft ferromagnetic materials (low coercivity) but show high saturation magnetizationvery close to that expected. The best coercivities are obtained with the bulk nanostructured material using SPSassisted by a permanent magnetic field. This magnetic field succeeded to align the nanowires during sintering.The mechanical behavior of the nanostructured materials depends mainly on the grain size. Hardness andmechanical resistance increase when the grain size decreases in agreement with the Hall-Petch relationship
48

Breuzard, Gilles. "Mise en évidence de l'intégration membranaire de la mitoxantrone à l'échelle de la cellule vivante par spectroscopie Raman SERS et transfert d'énergie de fluorescence." Reims, 2006. http://theses.univ-reims.fr/exl-doc/GED00000294.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un modèle cellulaire de résistance multiple, la nature de l'interaction médicament/membrane reste un paramètre encore mal décrit bien qu'important pour définir l'incorporation intracellulaire du xénobiotique. Les objectifs ont été de développer des méthodes spectroscopiques permettant une analyse de l'intégration de la mitoxantrone (MTX) dans un modèle de résistance cellulaire de type BCRP/MXR. D'une part, la spectroscopie SERS (Surface-Enhanced Raman Scattering) implique un colloïde d'argent extracellulaire permettant une exaltation Raman de molécules en situation membranaire. D'autre part, le transfert d'énergie d'une sonde membranaire fluorescente vers MTX permet de déterminer des paramètres d'intégration du médicament dans les deux feuillets de la membrane. Une exaltation SERS de MTX est observée lorsque le rayonnement laser est focalisé sur un grain de colloïde en contact avec la membrane de cellules traitées par le médicament. Ces résultats sont interprétés comme une intégration partielle de MTX sur la membrane plasmique. De plus, une intensité SERS de MTX trois fois plus importante est observée chez les cellules résistantes, ce qui est assimilée à une accessibilité plus importante de MTX par le colloïde. Par transfert d'énergie de fluorescence, une quantité équivalente de molécules de MTX intégrées dans la membrane entre les deux types cellulaires a été déterminée. En conclusion, la spectroscopie SERS et le transfert d'énergie de fluorescence permettent une analyse sélective de molécules anticancéreuses à l'échelle de la membrane plasmique. Des modifications de la structure membranaire pourraient être à l'origine des différences d'intégration de MTX
The nature of drug/membrane interaction remains in the multi-drug resistance an elusive parameter, though important to define the intracellular uptake of xenobiotic. The aims of this work were to develop different spectroscopic methods in order to analyse the insertion mode of mitoxantrone (MTX) in a resistant BCRP/MXR cell model. On the one hand, SERS spectroscopy (Surface-Enhanced Raman Scattering) implicating an extracellular silver colloid to enhance Raman scattering of molecules at the surface of the plasma membrane was used. On the other hand, energy transfer from a membrane fluorescent probe to MTX allowed to determine insertion parameters of MTX in the two leaflets of the membrane. Raman scattering of MTX was observed after focusing the laser on a colloid nanoparticle in contact with the membrane of MTX-treated cells. These results were interpreted as a partial insertion of MTX on the plasma membrane. Moreover, a three-fold SERS intensity increase of MTX was observed for resistant cells, which was explained by a higher xenobiotic accessibility to the colloid. The comparison of insertion time-course investigated by fluorescence energy transfer revealed a similar quantity of membrane-inserted MTX molecules between two cell lines. In conclusion, SERS spectroscopy and fluorescence energy transfer allowed to analyse selectively anticancer molecules at the level of the plasma membrane. Changes of the membrane structure could be at the origin of incorporation differences of MTX
49

PIETRZYK, ALEKSANDER. "Le " synode suisse " de 1972. Etude canonique sur la mise en oeuvre du principe de synodalite dans l'elaboration des " lois synodales " des eglises particulieres." Paris 11, 1988. http://www.theses.fr/1988PA111011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de l'histoire de l'eglise, le synode diocesain a ete celebre dans des moments cruciaux et decisifs. Apres le concile de vatican ii, un important mouvement synodal se developpe, en europe en particulier. Il semble que dans notre mode secularise, cette institution ecclesial ne soit pas adaptee aux principe deocratiques contemporains. Pourtant, l'etude du synode suisse de 1972 permet de constater que le principe de synodalite s'accomode des regles democratiques cheres aux suisses tout en s'accordant avec le principe hierarchique indispensable au fonctionnement du synode et incarne par l'eveque. Pour bien comprendre l'importance et l'originalite du synode suisse de 1972, il faut savoir que les responsables ont tenu coepte de l'institution synodale cantonal civile, de l'institution synodale des reformes ainsi que de l'historique de l'institution synodale chez les catholiques (surtout le droit canonique en evolution). Le synode suisse de 1972, a permis aux eglises particulieres de realiser la reception de vatican ii et une mise a jour de la legislation synodale pour relever les defis d'un monde contemporain en plein changement
Throughout the history of the church, diocesan synods have taken place at times that have been both crucial and decisive. In the post-vatican ii period, an important synodal movement developed, particularly in europe. At first glance, it would seem that this ecclesiastical institution is not suited to he democratic principales of our contemporary secularised world. Hower, a study of the swiss synode of 1972 proves that the structure of the synod can be in accord with democratic principles, -so valued by the swiss, - while continuing to observe the hierarchichal principles necessary to the workings of the synode as represented by the bishop. To appreciate the importance and the originality of the swiss synode of 1972, it must be remembered that the organisers respected the civil synodal canotnal structure and the synodal structure of the reformed church. They also took into account the history of the synode among catholics. The swiss synode of 1972 allowed the particular churches to prepare for vatican ii. It also onstigated a re-evaluation of synodal law in the context of a changing world
50

El, Alam Hanane. "Contribution à la mise en oeuvre de lois de comportements thermomécaniques issues de l'approche D. N. L. R. Dans le cadre des transformations finies." Vandoeuvre-les-Nancy, INPL, 2004. http://www.theses.fr/2004INPL100N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour étendre la loi de comportement issue du formalisme D. N. L. R. Aux grandes déformations, la difficulté réside bien dans le traitement de l'objectivité. Le présent travail constitue une première contribution visant à surmonter cette difficulté. C'est ainsi que suivant notre choix d'étude prenant appui sur la contrainte de Cauchy, nous avons été amenés à réfléchir sur le sens de la mesure de la déformation associée. Pour être plus précis, nous avons posé la problématique en examinant un panel assez complet de dérivées objectives proposées dans la littérature. A ce stade, nous avons pu vérifier, dans notre cadre thermodynamique, le caractère crucial du choix, a priori, d'une de ces dérivées objectives, sur le niveau de contraintes réellement "vu" par le matériau et correspondant à un niveau de déformation donné dans le cas du cisaillement simple. Les travaux récents de Xiao, Bruhns et Meyers nous ont orientés vers la dérivée dite logarithmique pour opérer l'intégration temporelle du taux de déformation en vue de définir- la mesure de la déformation associée à la contrainte de Cauchy et assurer la cohérence de notre loi de comportement en transformations finies
To extend the D. N. L. R. Formalism to the large transformations, the difficulty lies weil in the treatment of the objectivity. This work is a first attempt to overcome this difficulty. Thus, according to the DNLR formalism which basically uses the Cauchy stress, an effort has been made to identify the associated definition of the strain measurement. More clearly, several objective rates proposed in the literature have been examined. At this stage, we verify within the DNLR thermodynamic framework, the importance of the choice, a priori, of one of these objective rates, on the level of stress really "seen" by the material for a given strain level. Recent works by Xiao, Bruhns and Meyers incited us to use the logarithmic rate in order to perform the temporal integration of the strain rate and to define the strain measurement associated to the Cauchy stress and to ensure the coherency of the behavior law for finite transformations

To the bibliography