Dissertationen zum Thema „Optimisation multi-échelle“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Optimisation multi-échelle.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-21 Dissertationen für die Forschung zum Thema "Optimisation multi-échelle" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Kempfer, Kévin. „Simulation multi-échelle de l'interaction polymère-charge“. Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC051.

Der volle Inhalt der Quelle
Annotation:
Dans l’industrie du pneumatique, l’ajout de nanoparticules de silice dans la gomme est un procédé couramment utilisé en raison des propriétés mécaniques remarquables du matériau composite résultant de ce mélange. Cependant, l’origine physico-chimique du comportement de ce matériau demeure inexpliquée. Le but de cette thèse est de sonder ce système par simulation moléculaire. Afin de couvrir de larges étendues spatiales et temporelles, inhérentes à ce type de matériau, nous avons adopté une stratégie de simulation multi-échelle. À partir de trajectoires atomistiques de référence de haute résolution obtenues par dynamique moléculaire, nous construisons des potentiels gros grain réalistes en utilisant la méthode d’optimisation bayésienne. Nos modèles rendent compte quantitativement du comportement caractéristique de chaînes enchevêtrées. La démarche multi-échelle, étendue à l’interaction polymère-silice, nous permet de modéliser convenablement les propriétés thermodynamiques, structurales et dynamiques d’un système composé d’une nanoparticule de silice, greffée ou non, plongée dans une matrice de polymère amorphe. Ce travail ouvre la voie à la prédiction quantitative des propriétés viscoélastiques des caoutchoucs renforcés sur des échelles temporelles de l’ordre de la microseconde. Ces dernières, inatteignables à l’aide d’une description atomistique, sont désormais accessibles à l’aide de nos jeux de potentiels gros grain
In the tire industry, the addition of nanosized silica fillers into rubber is a commonly used process due to the outstanding mechanical properties of the resulting composite material. However, the link between the underlying chemistry and the mechanical behavior of this material remains unsolved. The aim of this thesis is to investigate this system using molecular simulation. In order to cover wide length and time scales, inherent to this type of material, we took the route of applying a multiscale simulation strategy. Starting from coarse-grained reference trajectories obtained from higher resolution molecular dynamics trajectories, we build realistic coarse-grained dissipative dynamics models by using the bayesian optimization method. Our models quantitatively predict the characteristic behavior of entangled polymer chains. This multiscale approach, extended to the polymer-silica interaction, allows us to successfully model the thermodynamic, the structural, and the dynamic properties of a system made up of one silica nanoparticle, grafted or not, dispersed in an amorphous polymer matrix. This work opens the way towards the quantitative prediction of the viscoelastic properties of reinforced rubbers on time scales up to the microsecond. These time scales, inaccessible by mean of an atomistic description, are now reachable thanks to our coarse potentials
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Djourachkovitch, Tristan. „Conception de matériaux micro-architecturés innovants : Application à l'optimisation topologique multi-échelle“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI086.

Der volle Inhalt der Quelle
Annotation:
La conception de nouveaux matériaux toujours plus performants est un enjeu de taille de la science des matériaux moderne. On trouve plusieurs exemples de ces matériaux innovants, tels les matériaux composites, les mousses, ou encore, les matériaux micro-architecturés (matériaux qui présentent certaines propriétés de périodicité à une échelle petite par rapport aux dimensions de la structure). Un critère fréquent que l'on retrouve chez ces matériaux est leur rapport entre masse et rigidité. L'optimisation topologique est particulièrement adaptée à la conception de ce genre de matériaux car le critère que l'on cherche à améliorer est directement intégré à la formulation du problème de minimisation. Nous proposons donc, dans un premier temps, des méthodes de conception de matériaux micro-architecturés par optimisation topologique pour différents critères. Dans un second temps l'utilité de ces matériaux est illustrée via des simulations multi-échelle dans la théorie du premier gradient et l'hypothèse de séparabilité des échelles pour l'homogénéisation. Une méthode d'optimisation couplée des échelles macro/micro est proposée où l'objectif est d'optimiser simultanément ces deux échelles malgré leur interdépendance. Le développement d'un démonstrateur numérique à permis d'illustrer ces différentes méthodes ainsi que de tester différents critères d'optimisation, différents modèles mécaniques, etc. Afin de réduire les coûts de calculs qui peuvent croître rapidement notamment pour les problèmes multi-échelle en raison de l'augmentation du nombre de variables de design, une approche "base de donnée" est proposée. Une large gamme de matériaux micro-architecturés est stockée (puis enrichie) pour différents critères (masse, rigidité, comportement originaux). Cette base est ensuite consultée au cours de l'optimisation couplée
The design on innovative micro-architectured materials is a key issue of modern material science. One can find many examples of this kind of materials such as composites materials, foams, and even micro-architectured materials (materials which come along with some periodicity properties at the small scale). A common criterion for these materials is their ratio between weight and stiffness. Topology optimization is well suited for the design of this kind of material since the criterion that is subject to improvement is directly integrated in the formulation of the minimization problem. In this context, we propose some methods for the design of micro-architectured materials using topology optimization and for several criteria. We afterwards illustrate the benefits of these materials thought multi-scale simulations based on the theory of the first gradient and the scale separability assumption in the homogenization framework.A coupled macro/micro optimization method is presented for the concurrent optimization of the these two interdependent scales. The development of a numerical demonstrator has allowed to illustrated those various methods and to test several optimization criteria, mechanical models etcetera. In order to reduce the computational costs that might become exorbitant especially for multi-scale problems since the number of design variables increases significantly, a database approach is proposed. A broad range of micro-architectured materials is stored (and enhanced) for several criteria (weight, stiffness, original behaviour). This database is then consulted throughout the coupled optimization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Rodriguez, Pila Ernesto. „Contribution aux choix de modélisations pour la conception de structures multi-échelle sous incertitudes“. Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0222/document.

Der volle Inhalt der Quelle
Annotation:
La conception des structures multi-échelle s’appuie sur des modélisations expérimentales et prédictives. Pour accéder à des niveaux de précision élevés, ces modélisations reposent sur des campagnes expérimentales nombreuses et des développements prédictifs sophistiqués analytiques ou numériques qui intègrent des connaissances sur les paramètres d’intérêt. L’intégration de connaissances diminue l’incertitude sur les grandeurs d’intérêt et impacte de façon significative le coût de modélisation des structures multi-échelle, facteur majeur du coût de conception. Le concepteur doit alors être en mesure de maîtriser la pertinence de l’intégration de connaissances pour la prédiction des grandeurs d’intérêt et son impact sur le coût de modélisation. Les recherches menées sont structurées autour du développement d’une méthodologie d’aide à la conception sous incertitudes permettant au concepteur de choisir des combinaisons de modèles prédictifs et expérimentaux, appelées chemins de modélisation, présentant des compromis différents entre le coût de modélisation et l’incertitude sur les paramètres d’intérêt. Le travail se base sur une représentation pyramidale des modélisations expérimentales et prédictives. Les incertitudes aléatoires et épistémiques liées aux matériaux, aux modèles ainsi qu’aux tolérances géométriques sont agrégées et propagées dans la pyramide jusqu’aux grandeurs d’intérêt de la structure. Une méthode adaptative d’estimation du coût de modélisation, basée sur la logique floue, a été proposée. Le problème multi objectif visant à minimiser les incertitudes sur les paramètres d’intérêt et le coût de modélisation est résolu au moyen d’un algorithme « NSGA-II » permettant l’identification de chemins optimisés robustes. Les travaux sont appliqués au cas d’un réservoir composite épais destiné au stockage d’hydrogène. La méthodologie proposée démontre qu’il est possible de rationaliser les modélisations expérimentales et prédictives menées pour obtenir la pression d’éclatement du réservoir avec une précision maîtrisée. Dans un second temps, la méthodologie est utilisée pour obtenir des solutions de reconception sur des réservoirs présentant des volumes plus importants ou plus faibles et atteignant des pressions cibles différentes. Les chemins de modélisations robustes obtenus délivrent des solutions de dimensionnement adaptées aux exigences de reconception présentant un coût de modélisation et un niveau d’incertitude maitrisés
The design of multi-scale structures is based on predictive and experimental modelling. To achieve a high level of precision, modelling rest on a high number of experimental tests and sophisticated analytical and numerical developments integrating all possible knowledge about the quantity of interest. Adding knowledge into models diminishes the uncertainty on quantities of interest and significantly impacts the cost of modelling, a high impact factor on the design cost. The designer must be able to control the suitability of the integration of knowledge into the prediction of quantities of interest and its impact on the cost of modelling. The research carried out in this work is structured around the development of a methodology of assistance to the design under uncertainties allowing the designer to choose combinations between several predictive and experimental models, called modelling paths, presenting different compromises between the cost of modelling and the uncertainty on quantities of interest. The work is based on a pyramidal representation of experimental and predictive modelling. Random and epistemic uncertainties related to materials, models and geometrical tolerances are aggregated and propagated in the pyramid up to the quantities of interest of the structure. An adaptive method based on fuzzy logics for estimating the cost of modelling has been proposed. The multi objective problem aiming to minimizing the uncertainties on the quantities of interest and the cost of modelling is solved by means of the « NSGA-II » genetic algorithm, allowing to identify robust optimized modelling paths. This methodology is applied to a thick composite vessel for hydrogen storage. The proposed methodology demonstrates the possibility of rationalization of experimental and predictive models carried out to obtain the burst pressure of the vessel with a controlled precision. In a second step, the methodology is used to redesign the vessel considering larger or smaller volumes and with different burst pressure targets. Robust modelling paths obtained deliver design solutions adapted to the redesign requirements with a controlled modelling cost and a managed level of uncertainty
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Marcatili, Sara. „Multi-scale dosimetry for targeted radionuclide therapy optimisation“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30211/document.

Der volle Inhalt der Quelle
Annotation:
La Radiothérapie Interne Vectorisée (RIV) consiste à détruire des cibles tumorales en utilisant des vecteurs radiomarqués (radiopharmaceutiques) qui se lient sélectivement à des cellules tumorales. Dans un contexte d'optimisation de la RIV, une meilleure détermination du dépôt d'énergie dans les tissues biologiques est primordiale pour la définition d'une relation dose absorbée - effet biologique et pour l'optimisation des traitement du cancer. Cela nécessite une évaluation quantitative de la distribution de l'activité (avec la technique d'imagerie moléculaire la plus appropriée) et d'effectuer le transport du rayonnement à l'échelle à laquelle se produisent les phénomènes biologiques pertinents. Les méthodologies à appliquer et les problématiques à établir dépendent strictement de l'échelle (cellule, tissu, organe) de l'application considérée, et du type de rayonnement en cause (photons, électrons, particules alpha). Mon travail de recherche a consisté à développer des techniques dosimétriques dédiées (dosimétrie mono-échelle) et innovantes, capables de prendre en compte la particularité de différents scénarios expérimentaux (cellulaire, pré-clinique, RIV clinique)
Targeted Radionuclide Therapy (TRT) consists in killing tumour targets by using radiolabeled vectors (radiopharmaceuticals) that selectively bind to tumour cells. In a context of TRT optimization, a better determination of energy deposition within biologic material is a prerequisite to the definition of the absorbed dose-effect relationship and the improvement of future cancer treatment. This requires being able to quantitatively assess activity distribution (with the most appropriate molecular imaging technique) and perform radiation transport at the scale at which biologically relevant phenomena occur. The methodologies that should be applied and the problematic to be faced strictly depend on the scale (cell, tissue, body) of the application considered, and on the type of radiation involved (photons, electrons, alpha). This research work consisted in developing dedicated dosimetric techniques (single-scale dosimetry) capable of taking into account the peculiarity of different experimental scenarios (cellular, pre-clinical, clinical TRT)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Benabdallah, Nadia. „Optimisation de la dosimétrie en alphathérapie par approche multi-échelle : application au traitement des métastases osseuses par le ²²³Ra“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS565/document.

Der volle Inhalt der Quelle
Annotation:
La radiothérapie interne vectorisée (RIV) repose sur l’administration d’un radiopharmaceutique, qui va se distribuer dans le corps du patient et se fixer plus spécifiquement dans les régions tumorales afin de les détruire. Récemment, le développement de nouveaux radiopharmaceutiques, notamment des émetteurs alpha, rend la discipline particulièrement prometteuse. En effet, leurs propriétés leur confèrent, par rapport aux émetteurs β-, une plus grande cytotoxicité pour les cellules tumorales tout en limitant l’irradiation non désirée aux tissus sains.L’objectif dans le domaine est plus particulièrement de déterminer, pour chaque patient, l’activité à injecter permettant d’obtenir un maximum de dose à la tumeur tout en ne dépassant pas les limites de dose aux organes à risques. Pour les radiopharmaceutiques émetteurs alpha, l’évaluation dosimétrique est un véritable challenge au vu du faible parcours de ces particules.Pour répondre à ce challenge, les études proposées se sont portées sur le ²²³Ra (Xofigo®) qui est le premier radiopharmaceutique émetteur alpha à avoir obtenu en novembre 2013 l’autorisation de mise sur le marché, valide dans toute l’Union Européenne, pour le traitement de patients atteints de métastases osseuses du cancer de la prostate. Ces études se sont articulées sous la forme de trois défis.Le premier défi est d’être en mesure de réaliser des images afin de connaître la répartition de l’activité dans le corps du patient. En effet, le faible parcours des particules alphas ne permettent pas à ceux-ci d’être détectés. Toutefois, le ²²³Ra et ses descendants émettent plusieurs raies gamma. Un protocole optimisé pour l’obtention d’images du ²²³Ra à l’aide d’une gamma-caméra a été mis en place en collaboration avec l’Hôpital Européen Georges Pompidou. De nombreuses expériences ont été réalisées à l’aide de fantômes physiques. Ce protocole d’imagerie a été accepté dans le cadre d’un nouvel essai clinique multicentrique (HEGP, Cochin, IGR, Caen, Bordeaux) de phase I/II dédié au traitement par le ²²³Ra des métastases osseuses du cancer rénal.La distribution spatiale du radiopharmaceutique ainsi connue, il s’agit de prendre en compte son évolution temporelle. Ainsi, pour calculer l’activité cumulée à partir d’images dynamiques, un algorithme a été intégré au logiciel de dosimétrie interne OEDIPE (Outil d’Evaluation de la Dose Interne PErsonnalisée), développé depuis une quinzaine d’années à l’IRSN. Ce dernier permet, à l’aide de calculs Monte Carlo directs, d’effectuer une dosimétrie précise et personnalisée en prenant en compte les données anatomiques et fonctionnelles du patient.Le deuxième défi concerne la détermination de l’énergie absorbée dans les parties radiosensibles de l’os. A l’heure actuelle, les paramètres dosimétriques utilisés ne considèrent pas l’énergie de l’alpha, le site squelettique ou la proportion de moelle rouge. Ainsi, les calculs de dose ont été optimisés en utilisant les modèles de l’os les plus réalistes à l’heure actuelle.Enfin, le troisième défi est de connaître la distribution du ²²³Ra à l’échelle sub-cellulaire pour relier au mieux la dose aux effets biologiques. Ces paramètres étant difficilement caractérisables chez un patient, des études ont été réalisées sur la souris. Des modèles animaux sains et présentant des métastases osseuses dérivant d’un cancer du rein ou de la prostate ont été développés en collaboration avec le CIPA à Orléans. La différence de fixation et de répartition du ²²³Ra entre les tissus sains et les métastases pour les différents modèles a été étudiée, à l’échelle microscopique, à l’aide d’images autoradiographiques réalisées en collaboration avec le CRCNA de Nantes.Finalement ce travail de recherche a permis d’appréhender les divers aspects de la dosimétrie interne appliqués au ²²³Ra. Il offre également des outils pour aller plus loin dans la personnalisation de la dosimétrie des nouveaux radiopharmaceutiques émetteurs alpha, actuellement en plein essor
Targeted therapy is based on the administration of a radiopharmaceutical, which will bind specifically in tumor regions in order to destroy them. Nowadays, this field is more and more promising thanks to the development of new radiopharmaceuticals, especially alpha emitters. Indeed, their characteristics confer a greater cytotoxicity to tumor cells while minimizing the unwanted radiation to healthy tissues in comparison with β- emitters.The goal here is to determine the administered activity, for each patient, which will ensure a maximum dose deposition in the tumor and a minimum dose deposition to the organs at risk. For alpha emitting radiopharmaceuticals, the dosimetric evaluation is a main challenge because of the particles short range.To meet this challenge, the proposed studies will focus on ²²³Ra (Xofigo®), which is the first alpha emitter that has received marketing authorization from European Commission in November 2013 for the treatment of patients with castration-resistant prostate cancer metastasized to bones. These studies were organized in three different challenges.The first challenge is to perform ²²³Ra imaging in order to determine the activity distribution in patient body. Indeed, the short path of alpha particles prevents their detection. Nevertheless, ²²³Ra and its daughters have several gamma emissions. An optimized ²²³Ra imaging protocol for gamma-camera was implemented in collaboration with the European Hospital George Pompidou. Many experiments were performed on physical phantoms. This protocol was then accepted in a new multicenter phase I/II clinical trial for the treatment of renal cell carcinoma with bone metastases.After the determination of the spatial distribution of the radiopharmaceutical, the temporal evolution must be taken into account. In order to calculate the cumulated activity from dynamic imaging, a biokinetic module has been implemented to the OEDIPE software (French acronym for “tool for personalized internal dose assessment”). This software developed by IRSN for the last fifteen years can perform precise and personalized Monte Carlo dosimetry from patient-specific anatomic and functional data.The second challenge involves the determination of the absorbed energy in the radiosensitive parts of the bone. Nowadays, the dosimetric parameters do not take the alpha particle energy, the bone site or the bone marrow proportion into account. Thus, dose calculations were optimized using the most recent and realistic bone models.Lastly, the third challenge is to characterize the distribution of ²²³Ra at the microscopic level in order to better assess the relationship between dose and biological effects. As theses parameters cannot be properly characterized on human, studies were performed on mice. Healthy mice and metastasis models, from a renal or prostate cancer, were developed in collaboration with the CIPA in Orléans. Differences of uptake between healthy tissues and metastases were studied in each model, at the microscopic scale using autoradiography methods performed in collaboration with the CRCNA at Nantes.Finally, this research work has helped to gain more insight into the various aspects of the ²²³Ra dosimetry. This work also offers tools to go further in dosimetry personalization for new alpha emitting radiopharmaceuticals, currently on the rise
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Chouikhi, Najib. „Production de biométhane à partir de biogaz par technologie de séparation par adsorption PSA : optimisation numérique par approche multi-échelle“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST043.

Der volle Inhalt der Quelle
Annotation:
A mesure que l'intérêt mondial pour les énergies renouvelables s'intensifie, la production de biogaz ne cesse de croître, car elle est une source renouvelable et propre. La technologie de séparation par adsorption modulée en pression (Pressure Swing Adsorption ou PSA) se présente alors comme une des technologies intéressantes permettant la valorisation du biogaz en biométhane. La grande flexibilité du procédé PSA est liée en une certaine manière à sa complexité avec plusieurs paramètres de design et opératoires contrôlant les performances de l’unité de séparation. L’identification de ces paramètres par une approche expérimentale est pratiquement impossible et une phase d’étude numérique est primordiale pour dimensionner l’unité, concevoir le cycle de pression et déterminer les conditions optimales de fonctionnement, avant tout essai expérimental. L’objectif général de la thèse a été centré sur le développement d’outils de simulation d’un procédé de purification de biométhane par technologie PSA.Dans un premier temps, une simulation basée sur une modélisation dynamique monodimensionnelle non isotherme a été mise en place. Elle fait appel à un modèle cinétique d’adsorption de double force motrice (bi-LDF) pour décrire les échanges de matière intragranulaires. Le choix de l’adsorbant s’est porté sur un tamis moléculaire de carbone (CMS-3K) permettant d’assurer une grande sélectivité cinétique du dioxyde de carbone vis à vis du méthane (CH4). Le cycle PSA a été optimisé pour obtenir une récupération du CH4 de 92 % avec une consommation d'énergie spécifique modérée de 0,35 kWh/Nm3, tout en respectant les spécifications de pureté d’injection dans le réseau national (97 % de CH4). Les performances obtenues sont ainsi compatibles avec une exploitation industrielle. Ce cycle est composé de cinq colonnes et de quinze étapes incluant trois équilibrages et un recyclage de gaz de purge.Le développement d’un modèle numérique multidimensionnel (3D) et multi-échelle (colonne/grain/cristal) permettrait d’estimer les limites des hypothèses et des corrélations utilisées dans les simulateurs usuels. La première étape consiste à simuler l’écoulement du gaz dans un lit d’adsorbant ayant une morphologie la plus réaliste possible. Ainsi, lors de la seconde partie du travail de thèse, un lit constitué de billes inertes a été généré numériquement par calcul DEM (modélisation par éléments discrets) pour une colonne de taille de laboratoire. L’emploi d’OpenFOAM (logiciel CFD) a permis de calculer l’écoulement tridimensionnel d’un traceur dans la colonne. En parallèle une étude expérimentale du front de percée a été menée pour un lit de mêmes dimension et caractéristiques. Les temps de percée et les coefficients de dispersion-diffusion calculés et mesurés sont similaires. Cependant la simulation présente quelques divergences de la concentration du traceur localement dans la colonne, en raison de difficultés de maillage. L’étape suivante consistera à prendre en compte des interactions grains-fluide en considérant des grains poreux d’adsorbant
As global interest in renewable energy intensifies, biogas production continues to grow as a clean, renewable source. Pressure Swing Adsorption (PSA) is considered as one of the most interesting technologies for the valorization of biogas into biomethane. The great flexibility of the PSA process is linked in some way to its complexity with several design and operating parameters which control the performance of the separation unit. The identification of these parameters by an experimental approach is practically impossible. A numerical study stage is essential for sizing the unit, designing the pressure cycle and identifying the optimal operating conditions before any experimental test.The general objective of the thesis was focused on the development of simulation tools for a biomethane purification process using PSA technology.In a first stage, a simulation based on one-dimensional non-isothermal dynamic model, where the intragranular mass transfer kinetics was modelled using a double driving force (bi-LDF) approximation, was implemented. A carbon molecular sieve (CMS-3K) was selected. This adsorbent ensures a high kinetic selectivity of carbon dioxide with respect to methane (CH4). The optimized cycle, composed of five columns and fifteen steps including three equalization steps and a purge gas recycling allowed a CH4 recovery of 92% with a moderate specific energy consumption of 0.35 kWh/Nm3 , at the same time respecting the grid injection specifications (97% CH4 purity ). The performance obtained is thus compatible with industrial operation.The development of a multidimensional (3D) and multi-scale (column/grain/crystal) numerical model would serve to evaluate the limits of the assumptions and correlations used in usual simulators. The first step consists in simulating the gas flow in an adsorbent bed having a reaslistic stacking.. Thus, an inert packed bed was numerically generated by DEM calculation (discrete element modeling) for a column of laboratory size. The use of OpenFOAM (CFD software) allowed to calculate the three-dimensional tracer gas flow in the column. In parallel an experimental study of the breakthrough curves was carried out using a bed having the same dimensions and characteristics. The breakthrough times and the dispersion-diffusion coefficients calculated and measured were similar. However the simulation showed some divergences in the concentration of the tracer locally in the column, due to difficulties in meshing. The next step will consist in taking into account grain-fluid interactions by considering porous adsorbent grains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Billy, Frédérique. „Modélisation mathématique multi-échelle de l'angiogenèse tumorale : analyse de la réponse tumorale aux traitements anti-angiogéniques“. Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00631513.

Der volle Inhalt der Quelle
Annotation:
Le cancer est l'une des principales causes de décès dans le monde. L'angiogenèse tumorale est le processus de formation de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants. Une tumeur cancéreuse peut induire l'angiogenèse afin de disposer d'apports supplémentaires en oxygène et nutriments, indispensables à la poursuite de son développement. Cette thèse consiste en l'élaboration d'un modèle mathématique multi-échelle de l'angiogenèse tumorale. Ce modèle intègre les principaux mécanismes intervenant aux échelles tissulaire et moléculaire. Couplé à un modèle de croissance tumorale, notre modèle permet d'étudier les effets de l'apport en oxygène sur la croissance tumorale. D'un point de vue mathématique, ces modèles d'angiogenèse et de croissance tumorale reposent sur des équations aux dérivées partielles de réaction-diffusion et d'advection régissant l'évolution spatio-temporelle des densités de cellules endothéliales, cellules constituant la paroi des vaisseaux sanguins, et tumorales, ainsi que celle des concentrations tissulaires en substances pro- et antiangiogéniques et en oxygène. A l'échelle moléculaire, la liaison des substances angiogéniques aux récepteurs membranaires des cellules endothéliales, mécanisme clé de la communication intercellulaire, est modélisée à l'aide de lois pharmacologiques. Ce modèle permet ainsi de reproduire in silico les principaux mécanismes de l'angiogenèse et d'analyser leur rôle dans la croissance tumorale. Il permet également de simuler l'action de différentes thérapies anti-angiogéniques, et d'étudier leur efficacité sur le développement tumoral afin d'aider à l'innovation thérapeutique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Ductor, Sylvain. „Mécanismes de coordination pour l'allocation dynamique de ressources dans des systèmes multi-agents large-échelle et ouverts“. Paris 6, 2013. http://www.theses.fr/2013PA066036.

Der volle Inhalt der Quelle
Annotation:
Les systèmes multi-agents offrent un paradigme adapté à la résolution de problèmes distribués d'optimisation multi-objectives. De plus en plus d'applications doivent faire face à ce type de problèmes, notamment dans les domaines du \textit{cloud computing} ou de l'\textit{ubiquitous computing}. Dans ces domaines, différents agents, pouvant défendre des intérêts différents, sont en concurrence et doivent se coordonner pour déterminer une issue commune. Il s'agit alors d'optimiser l'utilité de chacun des agents tout en respectant les contraintes du problème. Les applications qui nous intéressent % exhibent des propriétés rendant plus complexe le calcul tel qu'sont large-échelle et caractérisées par des variations dynamiques de l'environnement et des objectifs des agents, ainsi qu'une topologie non statique (des composants peuvent apparaître ou disparaître). Ces propriétés rendent la résolution des problèmes sous-jacents plus complexe. Le domaine de l'ingénierie du bien-être a récemment proposé une solide analyse théorique et expérimentale d'une approche adaptée à la résolution de ce type de problèmes : la négociation consensuelle itérée. Ce domaine a notamment étudié les relations existant entre les fonctions de décision des agents, la classe de contrats négociés et l'issue de la négociation à l'échelle sociale. Néanmoins, à notre connaissance, aucune contribution de ce domaine n'a porté sur la formalisation et la conception des mécanismes de coordination. Cette thèse porte sur la conception de mécanismes de coordination opérationnels en se plaçant dans le paradigme de l'ingénierie du bien-être. Nous contribuons tout d'abord à ce domaine en élaborant un modèle formel des mécanismes de coordination puis nous concevons une architecture générique d'agent négociant. En nous appuyant sur ce modèle et cette architecture, nous proposons cinq mécanismes de coordination répondant à des contextes applicatifs différents et offrant des caractéristiques différentes en termes de qualité de convergence et de complexité en calcul et en communication. Les cinq mécanismes proposés sont applicables à des problèmes large-échelle, dynamiques et ouverts. Les premiers se concentrent sur la famille des problèmes d'allocation de ressources et exploitent des propriétés inhérentes à ceux-ci. Le dernier mécanisme, quant à lui, s'applique au cadre plus général des problèmes distribués d'optimisation de contraintes. Enfin, une évaluation expérimentale des deux premiers mécanismes a été menée dans le cadre du problème de tolérance aux fautes par réplication. Les mécanismes ont été comparés à une approche parallèle et à une approche issue du domaine des problèmes d'optimisation distribuée de contraintes. Cette thèse s'inscrit dans le domaine de l'ingénierie du bien-être. Elle vise à le compléter en fournissant un modèle et une architecture de coordination et en l'operationnalisant avec des mécnaismes. Dans un premier temps à élaborer un modèle de mécanismes de de coordination pour compléter Dans cette thèse, nous proposons tout d'abord un modèle de coordination qui s'inscrit dans la lignée des travaux effectués dans le domaine de l'ingénierie du bien-être puis une architecture générique d'agent négociant. % plus généraux, tels que ceux abordés par le modèle de coordination que nous avons proposé
MAS offer a paradigm that is adapted to resolve distributed constraint optimisation problemsNowadays, more application must handle such problems, and notably in domains like cloud computing or ubiquitous computing. In those domains, differents agents, that may have potentially conflicting objectives, must coordinate in order to find a common solution. The aim is to optimise agents utilities while respecting problem constraints. We are interested in large-scale open and dynamic applications. Welfare engineering has recently propose a solid theoretical and experimental analysis for those kind of problems : iterated consensual negociation. This domain studies the relations between the agent rationalities, the coordination mecanism and the social abjective. However, as far as we know, no study of this domain was about formalising and designing coordination mecanisms. This thesis is about designing operational mecanisms in the context of welfare engineering. We firstly contribute to this domain by elaborating a formal model of coordination mecanisms and then we develop an abstract architecture for agent negociation. We propose five mecanisms that are applicable to large scale dynamic and open application. Four of them consider the restricted contect of resource allocation. Finally an experimental validation has been conducted and compared the mecanisms to a parallel and a distributed approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Lopez, Castano Silvia. „Optimisation des propriétés statiques du Ti-6Al-4V obtenu par Déposition Directe de fil via une analyse multi-échelle des microstructures“. Thesis, Toulouse 3, 2022. http://www.theses.fr/2022TOU30108.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte aéronautique où la réduction des coûts et de l’empreinte environnementale est un facteur décisif, la fabrication additive est intéressante pour des pièces fabriquées à partir de matériaux à forte valeur ajoutée tels que les alliages de titane, comme c’est le cas du Ti-6Al-4V. Ces dernières années, les procédés de déposition directe de fil sont particulièrement intéressantes pour les industriels car ils permettent de réaliser des pièces métalliques plus grandes et plus rapidement qu’avec d’autres techniques. La fabrication en série d’éléments à l’échelle d’un composant d’avion comme le mât moteur peut notamment être envisagée via ce type de procédé. Néanmoins, cette fabrication additive à grande échelle, et en particulier la technique EBAM utilisant un faisceau d’électrons comme source d’énergie, implique des épaisseurs de couches et des tailles de bains de fusion qui génèrent des histoires thermiques complexes. Ces conditions thermiques conduisent à des microstructures et/ou textures singulières par rapport aux technologies traditionnelles qui auront un impact direct sur les propriétés mécaniques. Le but principal de cette thèse est donc de déterminer les conditions de fabrication optimales au regard des propriétés statiques. Pour cela, l’identification des principales caractéristiques microstructurales a été réalisée à la fois à l’échelle macroscopique mais aussi microscopique pour mieux comprendre les caractéristiques générales des composants en Ti-6Al-4V obtenus par la technique EBAM. Les aspects les plus remarquables sont la formation des gros grains β colonnaires traversant plusieurs couches mais surtout la présence des nombreuses lignes perpendiculaires au substrat. Au voisinage de ces lignes, nommées comme lignes thermiques, un changement de la morphologie et de la taille des lamelles α a lieu en raison de différentes histoires thermiques engendrées lors de la déposition des différents couches. Une étude de la possible influence de ce gradient microstructural sur la répartition de la déformation plastique en lien avec la microstructure a été réalisée. Une localisation de la déformation avec des grandes bandes de glissement est observée juste en dessous de ces lignes thermiques, là où une microstructure basketweave «épaisse » est présente. Une fois que les principales caractéristiques microstructurales ont été identifiées, une étude de l’influence de certains paramètres opératoires clés (temps d’interpasse, courant du FE, vitesse de débit de fil et vitesse d’avance) sur différents aspects (histoire thermique, macro/microstructure, composition chimique) a été réalisée. Une approche quantitative multi-échelle a alors été effectuée dans le but de comprendre leur influence sur les propriétés finales. Nous avons ainsi pu identifier une méthode permettant d’optimiser les propriétés statiques. Pour finir, nous avons proposé un traitement thermique de recuit β comme alternative possible pour améliorer les propriétés mécaniques
Additive manufacturing is of great interest to the aerospace industry in a context of competition to reduce costs and environmental footprint. It is especially attractive for parts made with high value-added materials such as titanium alloys, as is the case of the Ti-6Al-4V. Nowadays, Wire-Direct Energy Deposition processes are receiving particular attention from the industry as they can produce larger metallic parts more quickly than other technologies, making possible the serial production of aircraft components such as the pylon. However, these large-scale additive manufacturing technologies, and in particular the EBAM technique that uses an electron beam as energy source, involve layer thicknesses and melt pool sizes that generate complex thermal histories. These thermal conditions lead at the same time to singular microstructure and/or textures compared to traditional technologies, which would have a direct impact on mechanical properties. Therefore, the main goal of this Ph.D. thesis is to determine the optimal manufacturing conditions regarding the static properties. For this purpose, the identification of the main microstructural characteristics is carried out both at the macrostructure and microstructure scale to better understand the general characteristics of Ti-6Al-4V components obtained by the EBAM technique. The most remarkable aspects are the formation of large columnar β grains crossing several layers and especially the presence of parallel lines perpendicular to the substrate. In the vicinity of these lines, called layer bands, a change in the morphology and size of α lamellae occurs due to different thermal histories generated during the deposition of different layers. A study of the possible influence of this microstructural gradient on the distribution of plastic deformation in relation to the microstructure is performed. A deformation localization with large slip bands is observed just below these layer bands, where a “coarse” basketweave microstructure is present. Once the main characteristics are known, a study of the influence of some key operating parameters (interpass time, beam current, wire feed speed, and travel speed) on different aspects (thermal history, macro/microstructure, chemical composition) is carried out through a complete quantitative analysis with the aim of understanding their influence on the final properties and thus being able to design a guide for the optimization of the static properties. Finally, a β annealing heat treatment has been finally proposed as a possible alternative for the improvement of the mechanical properties
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Fontecha, Dulcey Gilberto. „Modèle paramétrique, réduit et multi-échelle pour l’optimisation interactive de structures composites“. Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0247/document.

Der volle Inhalt der Quelle
Annotation:
Concevoir une structure composite consiste à relever un défi de taille : alors qu'un ingénieur qui conçoit un produit mécanique à base de matériau métallique se concentre principalement sur le développement d'une forme qui garantira un comportement spécifique, l'ingénieur pour qui le problème de conception est celui d'un produit à base de matériaux composites doit trouver la meilleure combinaison forme - structure de matériau. Ainsi, il doit aussi concevoir simultanément un matériau et la topologie produit. La combinatoire s’avère être complexe et les espaces de solutions de très grande taille.Les outils de CAO et de simulation par éléments finis n'offrent pas au concepteur une approche permettant d'explorer les espaces de recherche de manière interactive et rapide. Le travail de thèse conduit à une nouvelle approche numérique permettant de manipuler chaque paramètre de conception caractérisant une structure composite, quelle que soit l’échelle à laquelle il est pertinent.Premièrement, le modèle de comportement paramétrique et réduit (Parametric and Reduced Behavior Model, PRBM) est un modèle dit séparé. Il permet :1- une approche multi-échelle : les paramètres mécaniques de la structure sont explicitement décrits comme issus de la qualité matérielle de chaque fibre, de la matrice, de chaque couche et de la topologie même du stratifié,2- une approche multi-physique: indépendamment le comportement mécanique de chaque couche et de chaque interface est traité pour donner lieu au comportement du stratifié. Des situations de comportements statiques et dynamiques sont étudiés. Dans le cas du comportement dynamique, le caractère visco-élastique est devenu un enjeu conceptuel.Deuxièmement, une méthode mixant dérivées non entières et usage de la méthode PGD a permis la réalisation du PRBM. Intégré dans un modèle de connaissance paramétrique (Parametric Knowledge Model, PKM) auprès de modèles de connaissances experts, il constitue la base d'une méthode interactive d’aide à la conception.Le PKM est traité par une méthode d'optimisation évolutionnaire. De ce fait, le concepteur peut explorer de façon interactive les espaces de conception. Pour qualifier nos modèles et notre PRBM, nous étudions 2 problèmes de conception de structures stratifiées. Les solutions déterminées sont qualifiées vis-à-vis de simulations par éléments finis ou selon une approche empirique
The design process of laminated composites faces a major challenge: while an engineer designing a metallic based mechanical product is mainly focusing on the development of a shape that will guarantee a specific behavior, the engineer designing a composite based product must find the best combination of the shape-material structure. Therefore, he must simultaneously create a material and the product topology. The number of design solutions can be huge since the solution space is considerable.Standard CAE systems (CAD, Finite Element Simulation) do not provide an approach to explore these solution spaces efficiently and interactively. A new numerical procedure is proposed to allow engineers to handle each design parameter of a laminated composite structure, each at its relevant scale.First, the Parametric and Reduced Behavior Model (PRBM) is a separated model that enables reasoning based on1- A multiscale approach: the mechanical parameters of the structure are explicitly described as coming from the material quality of each fiber, the matrix, each layer and the topology of the laminate,2- A multiphysical approach: independently the mechanical behavior of each layer and each interface is processed, leading to the behavior of the laminate. Some situations of static and dynamic behavior are studied. In the case of dynamic behavior, the creeping becomes a conceptual issue.Secondly, a method mixing fractional derivatives and the Proper Generalized Decomposition (PGD) method allowed the creation of the PRBM. Integrated into a Parametric Knowledge Model (PKM) with other expert knowledge models, the PRBM makes the basis of an interactive method of design support.The PKM is processed by an evolutionary optimization method. As a result, the designer can interactively explore the design space. To qualify our models and our PRBM, we study two problems of design of laminated composite structures. The solutions determined are qualified versus finite element simulations or according to an empirical approach
El diseño de una estructura compuesta es un desafío mayor, mientras que un ingeniero que diseña un producto mecánico con materiales metálicos se concentra principalmente en el desarrollo de una geometría que garantice un comportamiento específico, el ingeniero que diseña un producto con materiales compuestos debe encontrar la mejor combinación forma – estructura del material. De esta manera, el ingeniero debe diseñar simultáneamente el material y la topología del producto, razón por la que esta combinación se vislumbra compleja, puesto que los espacios de solución son gran tamaño.Las herramientas CAO y de simulación por elementos finitos no ofrecen al diseñador una metodología que permita explorar los espacios de solución de manera interactiva y rápida. Por lo tanto, este trabajo de tesis propone un nuevo enfoque numérico que permite manipular parámetros de diseño que caracterizan la estructura compuesta, cualquiera que sea la escala de pertinencia.Como primera medida, el modelo de comportamiento paramétrico y reducido (Parametric and Reduced Behavior Model, PRBM) es un modelo definido de manera separada que permite:1- Un enfoque multiescala: los parámetros mecánicos se presentan de manera explícita en términos de las propiedades de cada fibra, de la matriz, de cada capa y de la topología del mismo apilamiento.2- Un enfoque multifísico: el comportamiento mecánico de cada capa y cada interface se modela de manera independiente para dar lugar al comportamiento del apilamiento. Se estudian situaciones de casos de comportamiento estático y dinámico. En el caso dinámico en particular, se tiene en cuenta también la característica viscoelástica de las interfaces.Como segunda medida, un método que combina derivadas no enteras y el uso de la descomposición propia generalizada (PGD), permite la realización del PRBM. Este constituye la base de un método interactivo de ayuda al diseño, pues está integrado dentro de un modelo de conocimiento (PKM) que también incorpora mejores prácticas aprendidas por expertos.El PKM es utilizado por un método de optimización evolucionaria. De esta manera, el diseñador puede explorar de manera interactiva los espacios de solución. Para validar nuestros modelos y el PRBM, se estudian dos problemas de diseño de estructuras apiladas. Las soluciones obtenidas se comparan con respecto a simulaciones obtenidas por el método de los elementos finitos y con respecto a resultados experimentales
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Lesart, Anne-Cécile. „Modélisation théorique du développement tumoral sous fenêtre dorsale : Vers un outil clinique d'individualisation et d'optimisation de la thérapie“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01061838.

Der volle Inhalt der Quelle
Annotation:
Le travail réalisé durant cette thèse a eu pour objectif de développer un modèle théorique spécifiquement dédié au contexte du développement tumoral tel qu'il peut être observé sous une fenêtre dorsale implantée sur une souris. Le modèle développé est un modèle hybride multi-physique et multi-échelle qui couple deux modules principaux. Le premier module modélise la croissance tumorale par un automate cellulaire qui permet de différencier l'état de chaque cellule en fonction de son histoire (cycle cellulaire), et de son environnement (espace disponible pour proliférer, présence d'oxygène). Le second module modélise le réseau vasculaire et le flux sanguin et rend compte de l'angiogenèse (apparition de nouveaux vaisseaux) et de l'adaptation du diamètre des vaisseaux, en fonction de l'évolution des contraintes hémodynamiques, nettement visible sous la fenêtre dorsale. L'ensemble des processus diffusifs (diffusion de l'oxygène et des facteurs de croissance vasculaire) sont décrits par des équations aux dérivées partielles, couplées à des automates cellulaires qui permettent de localiser à chaque instant pour chaque équation les termes sources (production) et les termes puits (consommation) pour chaque entité diffusive. Les simulations numériques réalisées montrent dans quelle mesure il est possible de rendre compte des observations expérimentales sur le plan qualitatif, qui nécessite la neutralisation des biais numériques ; et sur le plan quantitatif, pour reproduire la cinétique de croissance tumorale et l'évolution de la densité vasculaire. Le modèle numérique de l'évolution tumorale sous fenêtre dorsale est ensuite utilisé pour tester les effets de deux types de molécules : cytotoxiques et anti-vasculaires. Les simulations numériques de ces deux types de traitement explorent différents protocoles, définis par le mode d'action de la molécule, la dose administrée et la fréquence d'administration. Les résultats montrent comment il est alors possible de définir un protocole optimum pour une tumeur donnée en direction d'une individualisation de la thérapie. Ce modèle intégré a permis de poser de façon satisfaisante les bases d'un clone numérique du modèle expérimental d'évolution tumorale sous fenêtre dorsale même si certains aspects nécessitent encore quelques améliorations. La validation des aspects thérapeutiques restera encore à accomplir avant de pouvoir envisager à terme le remplacement (au moins partiel) de l'animal par l'ordinateur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Glé, Philippe. „Acoustique des Matériaux du Bâtiment à base de Fibres et Particules Végétales - Outils de Caractérisation, Modélisation et Optimisation“. Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00923665.

Der volle Inhalt der Quelle
Annotation:
Dans le bâtiment, de nouvelles réglementations thermiques sont mises en place afin de répondre à des problématiques d'économie d'énergie, et font apparaître de nouveaux types de matériaux. Cela ne doit pas se faire au détriment des propriétés acoustiques. Les matériaux à base de particules et fibres végétales, tels que le béton de chanvre et les laines chanvre/lin, sont caractérisés par des propriétés multifonctionnelles de haut niveau et constituent des solutions parfaitement adaptées à ce contexte. L'objectif de ce travail de thèse est d'explorer les propriétés acoustiques de ces matériaux, et plus particulièrement de mettre en évidence la contribution de leurs différentes échelles de porosité à la dissipation acoustique. A cette fin, les propriétés physiques et acoustiques de laines végétales, de chènevottes et de bétons de chanvre ont été caractérisées, et analysées en s'appuyant sur la théorie des matériaux poreux à simple et multiple échelle, développée dans la littérature. La campagne expérimentale a permis de souligner les performances acoustiques élevées de ces matériaux, pouvant être contrôlées par des leviers d'action relatifs au choix de leurs constituants et de leur mise en oeuvre. Il est de plus montré qu'étant donné le gradient de perméabilité existant entre les micropores (pores intrafibres, intraparticules et intraliants) et les mésopores (pores interfibres et interparticules), seuls les mésopores participent à la dissipation acoustique. Dans ce cadre, des modèles semi-phénoménologiques sont utilisés afin de prédire les propriétés acoustiques à partir des paramètres de base des constituants. Cette modélisation est finalement exploitée à travers une optimisation des propriétés acoustiques des matériaux à partir de leur formulation, leur structure multicouche et leur géométrie de surface. Des méthodes de caractérisation des matériaux par mesures acoustiques sont également proposées afin de réaliser un contrôle de qualité des granulats de chanvre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Mamo, Tesfayesus. „Planification stratégique, tactique et opérationnelle intégrée de la biomasse basée sur la canne à sucre vers les chaînes d'approvisionnement en biocarburants : une approche hybride d'optimisation et de subsitution“. Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP040.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années, la recherche s'est intensivement concentrée sur la production de biocarburant à partir de la biomasse en raison de son potentiel en tant que source d'énergie renouvelable, son potentiel élevé de remplacement des combustibles fossiles coûteux et des préoccupations environnementales liées à sa consommation excessive. Cependant, pour offrir un produit de biocarburant compétitif sur le marché, il est crucial d'établir une planification résiliente de la chaîne d'approvisionnement. Une approche holistique de cette planification est essentielle pour améliorer l'efficacité de la chaîne d'approvisionnement en biocarburant.Dans la littérature, la planification de la chaîne d'approvisionnement en biocarburant est effectuée hiérarchiquement aux niveaux stratégique (décisions à long terme : conception du réseau d'approvisionnement), tactique (décisions à moyen terme : gestion du réseau) et opérationnel (décisions à court terme : routage) par le développement de modèles distincts. Le problème de la méthode hiérarchique réside dans le fait que les solutions d'un niveau peuvent être incohérentes ou irréalisables pour les autres niveaux. Chaque niveau inférieur (tactique et opérationnel) inclut des variations non prises en compte aux niveaux supérieurs (stratégique). Toutefois, l'intégration des trois niveaux de décision conduit souvent à des problèmes linéaires mixtes en nombres entiers qui nécessitent un effort computationnel énorme pour être résolus. Une méthode capable de surmonter ce problème est donc nécessaire. L'objectif principal de cette dissertation est d'intégrer précisément les différents niveaux de décision et d'étudier l'impact des décisions à ces échelles en maximisant les avantages économiques et en minimisant les impacts environnementaux de la chaîne d'approvisionnement en biocarburant.Ce travail propose une approche holistique de l'optimisation de la chaîne d'approvisionnement en intégrant les niveaux stratégique, tactique et opérationnel. D'abord, un modèle d'optimisation intégrant les décisions stratégiques et tactiques est développé, suivi d'un problème de routage de véhicules en tant que modèle opérationnel. Pour résoudre de manière optimale le modèle d'optimisation avec le modèle opérationnel, une nouvelle approche itérative séquentielle est conçue. Le modèle d'optimisation est un programme linéaire en nombres entiers mixtes (MILP) maximisant la VAN de la chaîne d'approvisionnement en bioéthanol, tandis que le modèle opérationnel est un problème de routage de véhicules (VRP) minimisant le coût de transport. Ensuite, une perspective environnementale est intégrée au plan stratégique et tactique de la chaîne d'approvisionnement de la biomasse au biocarburant, couplée au plan opérationnel. Cela est réalisé en intégrant un objectif environnemental quantifiant les émissions de gaz à effet de serre (GES) de la chaîne d'approvisionnement. La performance environnementale est évaluée par une analyse du cycle de vie (ACV) du système et convertie en valeur monétaire via une approche d'éco-coût. L'approche développée est appliquée à l'optimisation de la chaîne d'approvisionnement en biocarburant du secteur éthiopien, afin de surmonter la complexité computationnelle du problème linéaire mixte en nombres entiers et de mieux représenter la réalité de la chaîne d'approvisionnement. Les résultats de cette recherche montrent la contribution du niveau opérationnel à l'amélioration de la qualité, de la cohérence et de la pertinence des résultats et de leur impact sur les niveaux stratégique et tactique
In recent years, research has focused heavily on the production of biofuel from biomass due to its potential as a renewable energy source, its high potential to replace the high cost of fossil fuels, and the environmental concerns associated with its excessive consumption. However, to effectively provide a biofuel product that can compete in the market, the establishment of resilient supply chain planning is important. Therefore, supply chain planning that considers a holistic approach is essential to improving the efficiency of the biofuel supply chain.In the literature, biofuel supply chain planning has been done hierarchically at the strategic (long-term decisions: supply network design), tactical (medium-term decisions: management of network design), and operational (short-term decisions: routing) levels by developing distinct models. The problem with the hierarchical method is that using solutions from one level may result in inconsistent or infeasible solutions. This is because each lower planning level (tactical and operational) includes variations that are not accountable at higher planning levels (strategic). However, integrating the three decision levels frequently leads to large mixed-integer linear or non-linear problems that require enormous computational effort to solve. Thus, a method that can overcome the computational problem is required. Therefore, the main goal of this dissertation is to accurately integrate the different decision levels and study the impact of the decision across these scales by maximizing the economic benefits and minimizing the environmental impacts across the biofuel supply chain.This work addresses a holistic approach to supply chain optimization by integrating the three decision levels (strategic, tactical, and operational). Firstly, an optimization model that integrates strategic and tactical decisions is developed in the first stage, and a vehicle routing problem is developed as an operational model in the second stage. To optimally solve the optimization model with the operational model, a novel sequential iterative approach is designed. The optimization model is mixed-integer linear programming (MILP) that maximizes the NPV of the bioethanol supply chain, while the operational model is a vehicle routing problem (VRP) that minimizes the transportation cost. Secondly, an effort is made to incorporate environmental perspectives into the integrated strategic and tactical plan of the biomass-to-biofuel supply chain, coupled with the operational plan. This is achieved by incorporating an environmental objective that quantifies the greenhouse gas (GHG) emissions associated with the supply chain. The environmental performance of the biofuel supply chain is assessed using a life cycle assessment (LCA) of the system and converted into monetary value by adopting an eco-cost approach. The developed approach is applied to optimize the biofuel supply chain in Ethiopia's biofuel sector, overcome the computational complexity associated with solving the underlying large-scale mixed integer linear problem, and provide a better representation of supply chain reality. The result of this research highlights the contribution of the operational level in enhancing the quality, coherence, and relevance of the results, as well as their impact on the strategic and tactical levels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Yang, Bin. „Contribution to a kernel of symbolic asymptotic modeling software“. Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2055/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée au développement d’un noyau du logiciel MEMSALab de modélisation parcalcul symbolique qui sera utilisé pour la génération automatique de modèles asymptotiques pourdes matrices de micro et nano-systèmes. Contrairement à des logiciels traditionnels réalisant des simulationsnumériques utilisant des modèles prédéfinis, le principe de fonctionnement de MEMSALabest de construire des modèles asymptotiques qui transforment des équations aux dérivées partiellesen tenant compte de leurs caractéristiques. Une méthode appelée ”par extension-combinaison” pourla modélisation asymptotique, qui permet la construction de modèle de façon incrémentale de sorteque les caractéristiques désirées soient incluses étape par étape est tout d’abord proposé pour lemodèle d’homogénéisation dérivation. Il repose sur une combinaison de méthodes asymptotiquesissues de la théorie des équations aux dérivés partielles et de techniques de réécriture issues del’informatique. Cette méthode concentre sur la dérivation de modèle pour les familles de PDEs aulieu de chacune d’entre elles. Un modèle d’homogénéisation de l’électro thermoélastique équationdéfinie dans un domaine mince multicouche est dérivé par utiliser la méthode mathématique danscette approche. Pour finir, un outil d’optimisation a été développé en combinant SIMBAD, une boite `aoutils logicielle pour l’optimisation et développée en interne, et COMSOL-MATLAB. Il a ´ et ´e appliquépour étudier la conception optimale d’une classe de sondes de microscopie atomique thermique et apermis d’ établir des règles générale pour leurs conception
This thesis is dedicated to develop a kernel of a symbolic asymptotic modeling software packageMEMSALab which will be used for automatic generation of asymptotic models for arrays of micro andnanosystems. Unlike traditional software packages aimed at numerical simulations by using pre-builtmodels, the purpose of MEMSALab is to derive asymptotic models for input equations by taking intoaccount their own features. An approach called ”by extension-combination” for the asymptotic modelingwhich allows an incremental model construction is firstly proposed for the homogenization modelderivation. It relies on a combination of the asymptotic method used in the field of partial differentialequations with term rewriting techniques coming from computer science. This approach focuses onthe model derivation for family of PDEs instead of each of them. An homogenization model of theelectrothermoelastic equation defined in a multi-layered thin domain has been derived by applyingthe mathematical method used in this approach. At last, an optimization tool has been developed bycombining a house-made optimization software package SIMBAD and COMSOL-MATLAB simulationand it has been applied for optimization of a SThM probe
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Koyeerath, Graham Danny. „Topology optimization in interfacial flows using the pseudopotential model“. Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU4008.

Der volle Inhalt der Quelle
Annotation:
L'optimisation des systèmes et des processus est un exercice qui s'effectue en tenant compte de l'expérience et des connaissances de chacun. Nous explorons ici une approche mathématique pour optimiser les problèmes physiques en utilisant divers algorithmes d'optimisation. Dans cette thèse, l'objectif préliminaire de l'optimiseur est de modifier les caractéristiques d'écoulement du système en ajustant les forces capillaires. Cet objectif peut être atteint en modifiant l'un des deux ensembles de paramètres : (a) en introduisant un matériau solide mouillant (paramètre de niveau) ou (b) en changeant la mouillabilité des surfaces solides existantes (paramètre de mouillabilité). Nous proposons que le premier ensemble de paramètres soit modifié à l'aide de l'algorithme d'optimisation topologique, où le gradient de la fonction de coût est obtenu en résolvant un modèle d'état adjoint pour le modèle monocomposant multiphase de Shan et Chen (SCMP-SC). De même, nous proposons que ce dernier ensemble de paramètres soit modifié à l'aide de l'algorithme d'optimisation de la mouillabilité, où nous dérivons à nouveau un modèle d'état adjoint pour le modèle SCMPSC. Enfin, nous utilisons un algorithme d'optimisation multi-échelle, dans lequel nous calculons le gradient de la fonction de coût à l'aide de la différence finie. Nous avons réussi à démontrer la compétence de cet optimiseur pour maximiser la vitesse moyenne d'une gouttelette 2D jusqu'à 69%
The optimization of systems and processes is an exercise that is carried out taking into account one’s experience and knowledge. Here we explore a mathematical approach to optimize physical problems by utilizing various optimization algorithms. In this thesis, the preliminary objective of the optimizer is to modify the flow characteristics of the system by tweaking the capillary forces. This could be accomplished by modifying either of the two sets of parameters: (a) by introducing a wetting solid material i.e. the level-set parameter or (b) by changing the wettability of the existing solid surfaces i.e. the wettability parameter. We propose that the former set of parameters could be modified using the topology optimization algorithm, where the gradient of the cost function is obtained by solving an adjointstate state model for the single component multiphase Shan and Chen (SCMP-SC) model. Similarly, we propose that the latter set of parameters are modified using the wettability optimization algorithm where we again derive an adjoint-state model for the SCMP-SC. Lastly, we utilize a multiscale optimization algorithm, where we compute the gradient of the cost function using the finite difference. We have succeeded in demonstrating the competence of this optimizer for maximizing the mean velocity of a 2D droplet by up to 69%
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Xia, Liang. „Towards optimal design of multiscale nonlinear structures : reduced-order modeling approaches“. Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2230/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal est de faire premiers pas vers la conception topologique de structures hétérogènes à comportement non-linéaires. Le deuxième objectif est d’optimiser simultanément la topologie de la structure et du matériau. Il requiert la combinaison des méthodes de conception optimale et des approches de modélisation multi-échelle. En raison des lourdes exigences de calcul, nous avons introduit des techniques de réduction de modèle et de calcul parallèle. Nous avons développé tout d’abord un cadre de conception multi-échelle constitué de l’optimisation topologique et la modélisation multi-échelle. Ce cadre fournit un outil automatique pour des structures dont le modèle de matériau sous-jacent est directement régi par la géométrie de la microstructure réaliste et des lois de comportement microscopiques. Nous avons ensuite étendu le cadre en introduisant des variables supplémentaires à l’échelle microscopique pour effectuer la conception simultanée de la structure et de la microstructure. En ce qui concerne les exigences de calcul et de stockage de données en raison de multiples réalisations de calcul multi-échelle sur les configurations similaires, nous avons introduit: les approches de réduction de modèle. Nous avons développé un substitut d'apprentissage adaptatif pour le cas de l’élasticité non-linéaire. Pour viscoplasticité, nous avons collaboré avec le Professeur Felix Fritzen de l’Université de Stuttgart en utilisant son modèle de réduction avec la programmation parallèle sur GPU. Nous avons également adopté une autre approche basée sur le potentiel de réduction issue de la littérature pour améliorer l’efficacité de la conception simultanée
High-performance heterogeneous materials have been increasingly used nowadays for their advantageous overall characteristics resulting in superior structural mechanical performance. The pronounced heterogeneities of materials have significant impact on the structural behavior that one needs to account for both material microscopic heterogeneities and constituent behaviors to achieve reliable structural designs. Meanwhile, the fast progress of material science and the latest development of 3D printing techniques make it possible to generate more innovative, lightweight, and structurally efficient designs through controlling the composition and the microstructure of material at the microscopic scale. In this thesis, we have made first attempts towards topology optimization design of multiscale nonlinear structures, including design of highly heterogeneous structures, material microstructural design, and simultaneous design of structure and materials. We have primarily developed a multiscale design framework, constituted of two key ingredients : multiscale modeling for structural performance simulation and topology optimization forstructural design. With regard to the first ingredient, we employ the first-order computational homogenization method FE2 to bridge structural and material scales. With regard to the second ingredient, we apply the method Bi-directional Evolutionary Structural Optimization (BESO) to perform topology optimization. In contrast to the conventional nonlinear design of homogeneous structures, this design framework provides an automatic design tool for nonlinear highly heterogeneous structures of which the underlying material model is governed directly by the realistic microstructural geometry and the microscopic constitutive laws. Note that the FE2 method is extremely expensive in terms of computing time and storage requirement. The dilemma of heavy computational burden is even more pronounced when it comes to topology optimization : not only is it required to solve the time-consuming multiscale problem once, but for many different realizations of the structural topology. Meanwhile we note that the optimization process requires multiple design loops involving similar or even repeated computations at the microscopic scale. For these reasons, we introduce to the design framework a third ingredient : reduced-order modeling (ROM). We develop an adaptive surrogate model using snapshot Proper Orthogonal Decomposition (POD) and Diffuse Approximation to substitute the microscopic solutions. The surrogate model is initially built by the first design iteration and updated adaptively in the subsequent design iterations. This surrogate model has shown promising performance in terms of reducing computing cost and modeling accuracy when applied to the design framework for nonlinear elastic cases. As for more severe material nonlinearity, we employ directly an established method potential based Reduced Basis Model Order Reduction (pRBMOR). The key idea of pRBMOR is to approximate the internal variables of the dissipative material by a precomputed reduced basis computed from snapshot POD. To drastically accelerate the computing procedure, pRBMOR has been implemented by parallelization on modern Graphics Processing Units (GPUs). The implementation of pRBMOR with GPU acceleration enables us to realize the design of multiscale elastoviscoplastic structures using the previously developed design framework inrealistic computing time and with affordable memory requirement. We have so far assumed a fixed material microstructure at the microscopic scale. The remaining part of the thesis is dedicated to simultaneous design of both macroscopic structure and microscopic materials. By the previously established multiscale design framework, we have topology variables and volume constraints defined at both scales
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Azzouzi, Jaouad. „Contribution à la modélisation et à l'optimisation des machines synchrones à aimants permanents à flux axial. Application au cas de l'aérogénérateur“. Phd thesis, Université du Havre, 2007. http://tel.archives-ouvertes.fr/tel-00634713.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire visent à développer une méthodologie de dimensionnement des machines synchrones à aimants permanents à flux axial. La mise en œuvre de cette méthodologie suppose de disposer d'un modèle mathématique définissant le comportement physique de la structure. Le modèle dimensionnant proposé dans ce mémoire est multi-échelle et est issu d'une modélisation magnéto-thermo-mécanique de la machine. Le problème de dimensionnement est ensuite écrit sous forme d'un problème d'optimisation multi-physique et multi-critères sous contraintes. Pour le résoudre, deux méthodes d'optimisation, s'appuyant sur les algorithmes génétiques et l'algorithme DIRECT, ont été implantées. En fin, la méthodologie de dimensionnement développée est évaluée dans le cas d'un aérogénérateur (10kW, 200tr/mn) dédié aux sites isolés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Kervazo, Christophe. „Optimization framework for large-scale sparse blind source separation“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS354/document.

Der volle Inhalt der Quelle
Annotation:
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées
During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Creus, Tomàs Jordi. „ROSES : Un moteur de requêtes continues pour l'agrégation de flux RSS à large échelle“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00771539.

Der volle Inhalt der Quelle
Annotation:
Les formats RSS et Atom sont moins connus du grand public que le format HTML pour la publication d'informations sur le Web. Néanmoins les flux RSS sont présents sur tous les sites qui veulent publier des flux d'informations évolutives et dynamiques. Ainsi, les sites d'actualités publient des milliers de fils RSS/Atom, souvent organisés dans différentes thématiques (politique, économie, sports, société...). Chaque blog possède son propre flux RSS, et des sites de micro-blogage comme Twitter ou de réseaux sociaux comme Facebook publient les messages d'utilisateurs sous forme de flux RSS. Ces immenses quantités de sources de données continues sont accessibles à travers des agrégateurs de flux comme Google Reader, des lecteurs de messages comme Firefox, Thunderbird, mais également à travers des applications mash-up comme Yahoo! pipes, Netvibes ou Google News. Dans cette thèse, nous présentons ROSES -Really Open Simple and Efficient Syndication-, un modèle de données et un langage de requêtes continues pour des flux RSS/Atom. ROSES permet aux utilisateurs de créer des nouveaux flux personnalisés à partir des flux existants sur le web à travers un simple langage de requêtes déclaratif. ROSES est aussi un système capable de gérer et traiter des milliers de requêtes d'agrégation ROSES en parallèle et un défi principal traité dans cette thèse est le passage à l'échelle par rapport au nombre de requêtes. En particulier, on propose une nouvelle approche d'optimisation multi-requête fondée sur la factorisation des filtres similaires. Nous proposons deux algorithmes de factorisation: (i) STA, une adaptation d'un algorithme d'approximation pour calculer des arbres de Steiner minimaux [CCC+98], et (ii) VCA, un algorithme glouton qui améliore le coût CPU d'optimisation du précédant. Nous avons validé notre approche d'optimisation avec un important nombre de tests sur des données réelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Gobé, Alexis. „Méthodes Galerkin discontinues pour la simulation de problèmes multiéchelles en nanophotonique et applications au piégeage de la lumière dans des cellules solaires“. Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4011.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est l’étude numérique du piégeage de la lumière dans des cellules solaires nanostructurées. Le changement climatique est devenu une problématique majeure nécessitant une transition énergétique à court terme. Dans ce contexte, l'énergie solaire semble être une source énergétique idéale. Cette ressource est à la fois scalable à l’échelle planétaire et écologique. Afin de maximiser sa pénétration, des travaux visant à augmenter la quantité de lumière absorbée et à réduire les coûts liés à la conception des cellules sont nécessaires. Le piégeage de la lumière est une stratégie qui permet d’atteindre ces deux objectifs. Son principe consiste à utiliser des texturations nanométriques afin de focaliser la lumière dans les couches de semi-conducteur absorbantes. Dans ce travail, la méthode de Galerkine Discontinue en Domaine Temporel (DGTD) est introduite. Deux développements méthodologiques majeurs, permettant de mieux prendre en compte les caractéristiques des cellules solaires, sont présentés. Tout d'abord, l’utilisation d’un ordre d’approximation local est proposé , basé sur une stratégie de répartition particulière de l’ordre. Le deuxième développement est l’utilisation de maillage hybride mixant ses élements hexahédriques structurés et tétrahédriques non structurés. Des cas réalistes de cellules solaires issus de la littérature et de collaborations avec des physiciens du domaine du photovoltaïque permettent d'illustrer l' apport de ces développements. Un cas d’optimisation inverse de réseau de diffraction dans une cellule solaire est également présenté en couplant le solveur numérique avec un algorithme d’optimisation bayésienne. De plus, une étude approfondie des performances du solveur a également été réalisée avec des modifications méthodologiques pour contrer les problèmes de répartition de charge. Enfin, une méthode plus prospective, la méthode Multiéchelle Hybride-Mixte (MHM) spécialisée dans la résolution de problème très fortement multiéchelle est introduite. Un schéma en temps multiéchelle est présenté et sa stabilité prouvée
The objective of this thesis is the numerical study of light trapping in nanostructured solar cells. Climate change has become a major issue requiring a short-term energy transition. In this context, solar energy seems to be an ideal energy source. This resource is both globally scalable and environmentally friendly. In order to maximize its penetration, it is needed to increase the amount of light absorbed and reduce the costs associated with cell design. Light trapping is a strategy that achieves both of these objectives. The principle is to use nanometric textures to focus the light in the absorbing semiconductor layers. In this work, the Discontinuous Galerkin Time-Domain (DGTD) method is introduced. Two major methodological developments are presented, allowing to better take into account the characteristics of solar cells. First, the use of a local approximation order is proposed, based on a particular order distribution strategy. The second development is the use of hybrid meshes mixing structured hexahedral and unstructured tetrahedral elements. Realistic cases of solar cells from the literature and collaborations with physicists in the field of photovoltaics illustrate the contribution of these developments. A case of inverse optimization of a diffraction grating in a solar cell is also presented by coupling the numerical solver with a Bayesian optimization algorithm. In addition, an in-depth study of the solver's performance has also been carried out with methodological modifications to counter load balancing problems. Finally, a more prospective method, the Multiscale Hybrid-Mixed method (MHM) specialized in solving very highly multiscale problems is introduced. A multiscale time scheme is presented and its stability is proven
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Nodet, Maëlle. „Problèmes inverses pour l'environnement : outils, méthodes et applications“. Habilitation à diriger des recherches, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00930102.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie