Academic literature on the topic 'Multi-paramètre'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Multi-paramètre.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Multi-paramètre"

1

Kamal, A., and S. Bennis. "Effet d'échelle sur la simulation du ruissellement en milieu urbain." Revue des sciences de l'eau 18, no. 2 (April 12, 2005): 225–46. http://dx.doi.org/10.7202/705558ar.

Full text
Abstract:
Ce travail consiste en l’élaboration d’une méthodologie systématique qui permet de substituer une modélisation hydraulique simplifiée à une modélisation détaillée d’un réseau d’assainissement. L’approche préconisée est basée sur une analyse multi-paramètre du processus du drainage en milieu urbain. Les paramètres adimensionnels retenus dans cette analyse font intervenir les caractéristiques du bassin versant, les caractéristiques du réseau et celles de la pluie. Pour donner à cette approche un cadre plus général, les auteurs ont mené cette analyse sur des réseaux et des pluies synthétiques couvrant un spectre très large de cas concrets. La méthodologie élaborée a fait l’objet d’une étude de validation sur le bassin No1 de l’arrondissement de Verdun (Montréal). La concordance entre les débits mesurés à l’exutoire du bassin et les débits simulés par cette approche est avantageusement satisfaisante. Les modèles de transformation découlant de cette analyse, permettant le passage d’une modélisation globale à une modélisation détaillée constituent une avancée très significative pour une gestion en temps réel et optimisée des réseaux d’assainissement.
APA, Harvard, Vancouver, ISO, and other styles
2

Odjohou, Ella, Mireille Amani, Gbombélé Soro, and Sylvain Monde. "Caractérisation physico-chimique des eaux d’un système lacustre du cordon littoral ivoirien : cas du lac Labion." International Journal of Biological and Chemical Sciences 14, no. 5 (September 14, 2020): 1878–92. http://dx.doi.org/10.4314/ijbcs.v14i5.30.

Full text
Abstract:
L’analyse spatio-temporelle des paramètres physico-chimiques des eaux du lac Labion dans le système lagunaire ivoirien, a été abordé dans un contexte de variabilité climatique. L’objectif est de caractériser la physico-chimie des eaux au cours des saisons climatiques. Pour y parvenir, une analyse hydrologique a été réalisé à partir de mesure in situ des paramètres pH, Température, Conductivité électrique, Oxygène dissous, Matières en suspension, Transparence et Turbidité. Ces paramètres ont été mesurés à l’aide d’un multi-paramètre. Celui-ci est mis à l’eau et les résultats s’affichent à l’écran. Seule la transparence a été mesuré à l’aide du disque de Secchi. La température (31 °C) indique des eaux relativement chaudes. Quant au pH, il varie du neutre (6,79) à alcalin (8,99). La conductivité moyenne sur le lac est de 40 μS/cm. Les eaux sont bien oxygénées (7 à 8 mg/L) et présente peu de matières en suspension. L’analyse en composante principale montre une forte corrélation (r > 0,7) entre les variables température, oxygène, pH et conductivité. Ces résultats mettent en évidence deux (02) mécanismes qui sont à l’origine des forçages naturel et artificiel. Il s’agit du mécanisme de la photosynthèse occasionnant une bonne oxygénation des eaux et du mécanisme de pollution traduisant une forte turbidité.Mots clés : Lac, saison climatique, paramètre, mécanisme, évolution. English Title: Physico-chemical characterization of the waters of a lake system of the ivorian coastal cordon: case of Lake LabionThe spatio-temporal analysis of the physicochemical parameters of the waters of Lake Labion in the Ivorian lagoon system was tackled in the context of climate variability. The objective is to characterize the physico-chemistry of the waters during the climatic seasons. To achieve this, a hydrological analysis was carried out using in situ measurement of the parameters pH, Temperature, Electrical conductivity, Dissolved oxygen, Suspended matter, Transparency and Turbidity. These parameters were measured using a multi-parameter. It is launched and the results are displayed on the screen. Only transparency was measured using the Secchi disk. The temperature (31 °C) indicates relatively warm waters. As for the pH, it varies from neutral (6.79) to alkaline (8.99). The average conductivity on the lake is 40 μS / cm. The waters are well oxygenated (7 to 8 mg / L) and have little suspended matter. The principal component analysis shows a strong correlation (r> 0.7) between the variables temperature, oxygen, pH and conductivity. These results highlight two (02) mechanisms which are at the origin of natural and artificial forcings. This is the mechanism of photosynthesis causing good oxygenation of water and the pollution mechanism reflecting high turbidity.Keywords: Lake, climatic season, parameter, mechanism, evolution.
APA, Harvard, Vancouver, ISO, and other styles
3

Noumon, Coffi Justin, Domiho Japhet Kodja, Ernest Amoussou, Luc O. Sintondji, Daouda Mama, and Euloge K. Agbossou. "Qualité et usages de l'eau de la retenue d'eau de Kogbétohoue, dans la commune d'Aplahoue (Sud-Ouest, Bénin)." Proceedings of the International Association of Hydrological Sciences 384 (November 16, 2021): 99–105. http://dx.doi.org/10.5194/piahs-384-99-2021.

Full text
Abstract:
Abstract. Le comblement et l'eutrophisation des retenues d'eau constituent des contraintes majeures pour les usages qu'en font les populations riveraines. L'étude bathymétrique a révélé une diminution moyenne de 0,116 m/an de la profondeur sur sept (07) ans. Ce niveau élevé de comblement s'explique par l'érosion des terres due à la dégradation du couvert végétal et le surpâturage. Les mesures directes de la qualité physique : le pH, la température et l'oxygène dissous avec le multi paramètre PC HORIBA WATER QUALITY CHECKER U-10; les paramètres chimiques par la méthode chromatographique ICS 1000 et de dosage de la chlorophylle a avec le spectrophotomètre DR 5000 par la Norme AFNOR T90-117 ont permis d'évaluer le risque d'eutrophisation par la grille de diagnostic d'Ifremer (2000). Les eaux sont dans un état eutrophe. Le comblement et l'eutrophisation de la retenue constituent des menaces potentielles à court terme pour la pisciculture, l'irrigation et la consommation tandis que la disponibilité quantitative de la ressource est menacée à moyen terme. Des relevés bathymétriques périodiques et des actions d'aménagement du bassin versant de la retenue sont nécessaires à la gestion intégrée de la retenue d'eau.
APA, Harvard, Vancouver, ISO, and other styles
4

Kouassi, Kouamé Auguste, William Francis Kouassi, Oi Mangoua Jules Mangoua, Philippe Ackerer, Gountôh Aristide Douagui, and Issiaka Savané. "Estimation par approche inverse d'un champ de transmissivité sur l'ensemble de l'aquifère du Continental Terminal (CT) d'Abidjan." Proceedings of the International Association of Hydrological Sciences 384 (November 16, 2021): 49–56. http://dx.doi.org/10.5194/piahs-384-49-2021.

Full text
Abstract:
Abstract. La caractérisation hydraulique des systèmes aquifères est importante pour le développement de scénarios d'exploitation et de stratégies de gestion des eaux souterraines. En particulier dans les aquifères lithologiquement hétérogènes, il ne faut pas négliger les variations de transmissivité (T) à l'échelle locale. Les valeurs de transmissivité à l'échelle locale sont habituellement dérivées d'essais de pompage, mais dans la plupart des cas, leur nombre et leur disponibilité sont plutôt limités. De même, la mesure directe de la transmissivité sur l'ensemble d'un aquifère s'avère onéreux et quasi-impossible techniquement. Dans de telles situations, la modélisation hydrodynamique par approche inverse se présente comme la solution appropriée. Dans cet article, le champ de transmissivité réel de l'aquifère du Continental Terminal (CT) d'Abidjan est recherché par une paramétrisation multi-échelle qui permet de contourner le problème de changement d'échelle et de déterminer ce paramètre hydrodynamique sur l'ensemble de la nappe. Cette modélisation hydrogéologique a été réalisée à partir des modèles conceptuels Est-Ouest et Nord-Sud qui montrent que le CT est un aquifère constitué de deux couches principales n3 et n4, respectivement formées de sables grossiers de 90 m d'épaisseur et de sables fins à moyen de 80 m d'épaisseur. Le calage du modèle bicouche s'est effectué en régime transitoire de 12 pas de temps mensuels avec des données piézomètriques de 24 piézomètres, des données de production de 71 forages et des valeurs de transmissivité connues de 40 forages dans un maillage élément fini constitué de 534 mailles et 320 noeuds. Ainsi, ce modèle de la nappe du CT a identifié une structure de dimension 153 nœuds comme la structure la plus proche de celle de l'aquifère du CT. Les valeurs de T variant entre 5,4.10−5 et 1 m2 s−1 du champ de transmissivité associé à cette dimension optimale, ont été comparées aux valeurs de T d'autres champs de transmissivités publiées dans des études en Afrique et dans le monde. Ces valeurs identifiées sont plausibles et présentes une bonne structure dans l'ensemble.
APA, Harvard, Vancouver, ISO, and other styles
5

Haman, Didier Jean B., Fyetoh W. Fantong, G. Ombolo Auguste Ewodo Mboudou, and Gabriel Messi. "Approche décisionnelle géospatiale et multicritère dans l’identification des zones potentielles de recharge des eaux souterraines : cas du bassin versant du Mayo Bocki au Nord Cameroun." Journal of the Cameroon Academy of Sciences 18, no. 1 (August 16, 2022): 339–56. http://dx.doi.org/10.4314/jcas.v18i1.5.

Full text
Abstract:
La présente étude a été effectuée pour déterminer les zones potentielles de recharge des eaux souterraines. Pour ce faire, la démarche méthodologique était basée sur l’analyse multicritère associée aux techniques géospatiales. Les données utilisées étaient entre autres les images satellitaires, les fonds cartographiques, les données pluviométriques et les niveaux statiques. Ces données ont permis d’exprimer sous forme de carte thématique les facteurs régissant la recharge (pente, drainage, lithologie, fracturation, sol, pluviométrie et occupation du sol). L’analyse de sensibilité par suppression d’un paramètre a permis d’établir l’ordre d’influence suivant : Lit > Sol > AACH > Df > Pl > Pe > Dd > OS. Le croisement de tous ces paramètres après pondération a conduit à l’élaboration de la carte qui montre que les zones à ort potentiel occupent 3 % de la zone d’étude pendant que les zones de faible à faible potentialité sont de l’ordre de 58 % dans le bassin. Les zones à potentialité moyenne quant à elles représentent 39%. Ce support cartographique constitue indéniablement un outil d’aide à la décision pour les gestionnaires de l’eau. This study was carried out to determine potential groundwater recharge areas. To do this, the methodological approach was based on multi-criteria analysis associated with geospatial techniques. The data used were, among others, satellite images, base maps, rainfall data and static levels. These data made it possible to express in the form of a thematic map the factors governing the recharge (slope, drainage, lithology, fracturing, soil, rainfall and land use). The sensitivity analysis by deletion of a parameter made it possible to establish the following order of influence: Lit > Sol > AACH > Df > Pl > Pe > Dd > OS. The crossing of all these parameters after weighting led to the development of the map of potential recharge zones which revealed that the zones with high potential occupy 3% of the study zone while the zones with low to low potentiality are around 58% in the basin. Areas with average potential represent 39%. This cartographic support is undeniably a decision-making tool for water managers.
APA, Harvard, Vancouver, ISO, and other styles
6

Irie, Jean-Gael Trazie Bi, Marie-Laure Aney Kando, Clarisse Akoua Kra, and Sougo Aoua Coulibaly. "Effet des saisons sur la variation du niveau de pollution organique des eaux de la lagune Ebrié en Côte d’Ivoire." International Journal of Biological and Chemical Sciences 17, no. 2 (June 3, 2023): 720–34. http://dx.doi.org/10.4314/ijbcs.v17i2.35.

Full text
Abstract:
La lagune Ebrié, plan d’eau vitale pour l’économie de la Côte d’ Ivoire, subit des pressions naturelles et anthropiques qui ont des conséquences néfastes sur sa faune aquatique. En effet, elles rejettent dans ce hydrosystème d’importantes quantités de polluants organiques, entrainant son eutrophisation. Une meilleure connaissance de la distribution de ces polluants dans la lagune Ebrié pourrait conduire à sa préservation durable. Cette étude s’est donnée pour objectif de déterminer l’impact de la variation des saisons sur la répartition des polluants organiques dans les eaux de la lagune Ebrié. Deux compagnes, menées en saison sèche et en saison pluvieuse, ont permis de mesurer les valeurs de la conductivité, du TDS et du potentiel d’oxydoréduction avec un appareil multi-paramètre de type YSI V2 et de prélever des échantillons d’eau. Ces échantillons ont été traités selon les protocoles appropriés pour obtenir les teneurs de l’orthophosphate, du nitrite, de l’ammonium, des matières en suspension et de la DBO5. Les teneurs des sels nutritifs et de la demande biochimique en oxygène ont permis la détermination du niveau de pollution organique des eaux lagunaires, grâce à l’indice de pollution organique (IPO). Les fortes valeurs de conductivité et du TDS s’observent en face du canal de Vridi et dans les baies du Banco et de Biétry. Les eaux ont un potentiel d’oxydoréduction et une teneur en matières en suspension plus important en période pluvieuse. Les baies enregistrent les teneurs les plus élevées pour la demande biochimique en oxygène et les contaminants azotés et phosphorés. Les valeurs de l’IPO fluctuent de 1,25 à 3,5 en saison pluvieuse et entre 1,5 et 3,5 en saison sèche. L’intensité de la pollution organique des eaux, en saison sèche et saison pluvieuse, varient de modérée à très fortement polluée. Les milieux qui présentent des intensités de pollution fortes ou très fortes pendant les deux saisons sont les baies de Marcory, Cocody, Koumassi, Adiopodomé, Yopougon et de Biétry. La variation des saisons entraine une distribution hétérogène des polluants organiques dans les eaux de la lagune Ebrié. The Ebrié lagoon, a body of water vital to the economy of Côte d'Ivoire, is subject to natural and anthropogenic pressures which have harmful consequences on its aquatic fauna. Indeed, they reject in this hydrosystem large quantities of organic pollutants, causing its eutrophication. A better knowledge of the distribution of these pollutants in the Ebrié lagoon could lead to its sustainable preservation. This study set itself the objective of determining the impact of the variation of the seasons on the distribution of organic pollutants in the waters of the Ebrié lagoon. Two campaigns, carried out in the dry season and in the rainy season, made it possible to measure the values of conductivity, TDS and oxidation-reduction potential with a multi-parameter device of the YSI V2 type and to take water samples. These samples were processed according to the appropriate protocols to obtain the contents of orthophosphate, nitrite, ammonium, suspended solids and BOD5. The levels of nutrient salts and biochemical oxygen demand made it possible to determine the level of organic pollution of lagoon waters, thanks to the organic pollution index (IPO). The high conductivity and TDS values are observed opposite the Vridi channel and in Banco and Biétry bays. The waters have a redox potential and a higher content of suspended solids during the rainy season. Berries record the highest levels for biochemical oxygen demand and nitrogen and phosphorus contaminants. The IPO values fluctuate from 1.25 to 3.5 in the rainy season and between 1.5 and 3.5 in the dry season. The intensity of organic water pollution, in the dry and rainy seasons, varies from moderate to very heavily polluted. The environments with high or very high pollution intensities during both seasons are the bays of Marcory, Cocody, Koumassi, Adiopodomé, Yopougon and Biétry. The variation of the seasons leads to a heterogeneous distribution of organic pollutants in the waters of the Ebrié lagoon.
APA, Harvard, Vancouver, ISO, and other styles
7

Samet, Naïm, Antoine Valentin, Quentin Julien, Fan Zhang, and Hélène Petitpré. "L’intelligence artificielle au service de la caractérisation des matériaux (traitements thermiques et contraintes résiduelles)." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28462.

Full text
Abstract:
La caractérisation des matériaux par méthode non destructive est largement répandue dans l’industrie. La méthode s’appuie souvent sur l’analyse d’un signal provenant d’un capteur (ultrason, courants de Foucault, bruit Barkhausen ou autres), afin d’évaluer une caractéristique du matériau telle que la dureté superficielle, la profondeur des traitements thermiques et thermochimiques, etc. Tout d’abord, il est nécessaire d’avoir une corrélation physique entre la propriété physique et la réponse du moyen de contrôle mise en oeuvre. Ensuite, le signal acquis doit être enregistré dans des conditions optimales qui permettent de transcrire l’information nécessaire à la caractérisation. Mais malgré ces précautions, il arrive dans certains cas que la corrélation entre ces propriétés physiques et le signal soit difficile à établir. Cela est dû principalement à la complexité de la propriété physique recherchée et aux multiples interactions avec d’autres facteurs influents qui donne lieu à une faible corrélation entre le paramètre suivi et celle-ci. En effet, les méthodes classiques sont souvent basées sur l’analyse d’un seul paramètre, comme le Root Mean Square (RMS), le maximum ou le kurtosis par exemple, afin de corréler la propriété du matériau à ce dernier. Mais cette corrélation reste incomplète puisqu’elle ne décrit pas toute la déformation du signal en fonction de la propriété recherchée. Dans cet article, nous proposons d’utiliser une méthode multi paramètres qui permet, à partir d’un signal, d’extraire des paramètres pertinents qui décrivent correctement le signal, et de les utiliser afin de remonter à des propriétés mécaniques telles que la profondeur de cémentation ou les contraintes résiduelles. Des algorithmes de Machine Learning et/ou de Deep Learning sont utilisés, et les résultats sont comparés entre eux.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Multi-paramètre"

1

Lavoué, François. "Inversion des formes d'ondes électromagnétiques en 2D pour le géoradar : vers une imagerie multi-paramètre à partir des données de surface." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU050/document.

Full text
Abstract:
Les premiers mètres à centaines de mètres de la proche surface terrestre sont le siège de processus naturels dont la compréhension requiert une caractérisation fine de la subsurface, via une estimation quantifiée de ses paramètres. Le géoradar est un outil de prospection indirecte à même d'ausculter les milieux naturels et d'en estimer les propriétés électriques (permittivité et conductivité). Basé sur la propagation d'ondes électromagnétiques à des fréquences allant du MHz à quelques GHz, le géoradar est utilisé à des échelles et pour des applications variées concernant la géologie, l'hydrologie ou le génie civil. Dans ce travail de thèse, je propose une méthode d'imagerie quantitative des propriétés électriques sur des sections 2D de la subsurface, à partir de données radar acquises à la surface du sol. La technique mise en oeuvre est l'inversion des formes d'ondes, qui utilise l'intégralité du champ d'ondes enregistré.Dans une première partie, je présente les principes physiques et l'outil de modélisation numérique utilisés pour simuler la propagation des ondes électromagnétiques dans les milieux hétérogènes à deux dimensions. Pour cela, un algorithme de différences finies en domaine fréquentiel développé dans le cadre des ondes visco-acoustiques est adapté au problème électromagnétique 2D grâce à une analogie mathématique.Dans une deuxième partie, le problème d'imagerie est formulé sous la forme d'une optimisation multi-paramètre puis résolu avec l'algorithme de quasi-Newton L-BFGS. Cet algorithme permet d'estimer l'effet de la matrice Hessienne, dont le rôle est crucial pour la reconstruction de paramètres de différents types comme la permittivité et la conductivité. Des tests numériques montrent toutefois que l'algorithme reste sensible aux échelles utilisées pour définir ces paramètres. Dans un exemple synthétique représentatif de la proche surface, il est cependant possible d'obtenir des cartes 2D de permittivité et de conductivité à partir de données de surface, en faisant intervenir des facteurs d'échelle et de régularisation visant à contraindre les paramètres auxquelles l'inversion est la moins sensible. Ces facteurs peuvent être déterminés en analysant la qualité de l'ajustement aux données, sans hypothèse a priori autre que la contrainte de lissage introduite par la régularisation.Dans une dernière partie, la méthode d'imagerie est confrontée à deux jeux de données réelles. Dans un premier temps, l'examen de données expérimentales permet de tester la précision des simulations numériques vis-à-vis de mesures effectuées en environnement contrôlé. La connaissance des cibles à imager permet en outre de valider la méthodologie proposée pour l'imagerie multiparamètre dans des conditions très favorables puisqu'il est possible de calibrer le signal source et de considérer l'espace libre environnant les cibles comme modèle initial pour l'inversion.Dans un deuxième temps, j'envisage le traitement d'un jeu de données radar multi-offsets acquises au sein d'un massif calcaire. L'interprétation de ces données est rendue beaucoup plus difficile par la complexité du milieu géologique environnant, ainsi que par la méconnaissance des caractéristiques précises des antennes utilisées. L'application de la méthode d'inversion des formes d'ondes à ces données requiert donc une étape préliminaire impliquant une analyse de vitesse plus classique, basée sur les arrivées directes et réfléchies, et des simulations numériques dans des modèles hypothétiques à même d'expliquer une partie des données. L'estimation du signal source est effectuée à partir d'arrivées sélectionnées, simultanément avec des valeurs moyennes de conductivité et de hauteur d'antennes de façon à reproduire au mieux les amplitudes observées. Un premier essai d'inversion montre que l'algorithme est capable d'expliquer les données dans la gamme de fréquences considérée et de reconstruire une ébauche des principaux réflecteurs
The quantitative characterization of the shallow subsurface of the Earth is a critical issue for many environmental and societal challenges. Ground penetrating radar (GPR) is a geophysical method based on the propagation of electromagnetic waves for the prospection of the near subsurface. With central frequencies between 10~MHz and a few GHz, GPR covers a wide range of applications in geology, hydrology and civil engineering. GPR data are sensitive to variations in the electrical properties of the medium which can be related, for instance, to its water content and bring valuable information on hydrological processes. In this work, I develop a quantitative imaging method for the reconstruction of 2D distributions of permittivity and conductivity from GPR data acquired from the ground surface. The method makes use of the full waveform inversion technique (FWI), originating from seismic exploration, which exploits the entire recorded radargrams and has been proved successful in crosshole GPR applications.In a first time, I present the numerical forward modelling used to simulate the propagation of electromagnetic waves in 2D heterogeneous media and generate the synthetic GPR data that are compared to the recorded radargrams in the inversion process. A frequency-domain finite-difference algorithm originally developed in the visco-acoustic approximation is adapted to the electromagnetic problem in 2D via an acoustic-electromagnetic mathematical analogy.In a second time, the inversion scheme is formulated as a fully multiparameter optimization problem which is solved with the quasi-Newton L-BFGS algorithm. In this formulation, the effect of an approximate inverse Hessian is expected to mitigate the trade-off between the impact of permittivity and conductivity on the data. However, numerical tests on a synthetic benchmark of the literature display a large sensitivity of the method with respect to parameter scaling, showing the limits of the L-BFGS approximation. On a realistic subsurface benchmark with surface-to-surface configuration, it has been shown possible to ally parameter scaling and regularization to reconstruct 2D images of permittivity and conductivity without a priori assumptions.Finally, the imaging method is confronted to two real data sets. The consideration of laboratory-controlled data validates the proposed workflow for multiparameter imaging, as well as the accuracy of the numerical forward solutions. The application to on-ground GPR data acquired in a limestone massif is more challenging and necessitates a thorough investigation involving classical processing techniques and forward simulations. Starting permittivity models are derived from the velocity analysis of the direct arrivals and of the reflected events. The estimation of the source signature is performed together with an evaluation of an average conductivity value and of the unknown antenna height. In spite of this procedure, synthetic data do not reproduce the observed amplitudes, suggesting an effect of the radiation pattern of the shielded antennae. In preliminary tests, the inversion succeeds in fitting the data in the considered frequency range and can reconstruct reflectors from a smooth starting model
APA, Harvard, Vancouver, ISO, and other styles
2

Hu, Wei. "Identification de paramètre basée sur l'optimisation de l'intelligence artificielle et le contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire." Thesis, Ecole centrale de Lille, 2019. http://www.theses.fr/2019ECLI0008/document.

Full text
Abstract:
Cette thèse traite de l'identification des paramètres du point de vue de l'optimisation et du contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire (FOMASs) en tenant compte des retards, des perturbations externes, de la non-linéarité inhérente, des incertitudes des paramètres et de l'hétérogénéité dans le cadre d'une topologie de communication fixe non dirigée / dirigée. Plusieurs contrôleurs efficaces sont conçus pour réaliser avec succès le contrôle de suivi distribué des FOMASs dans différentes conditions. Plusieurs types d'algorithmes d'optimisation de l'intelligence artificielle et leurs versions modifiées sont appliquées pour identifier les paramètres inconnus des FOMASs avec une grande précision, une convergence rapide et une grande robustesse. Il est à noter que cette thèse fournit un lien prometteur entre la technique d'intelligence artificielle et le contrôle distribué
This thesis deals with the parameter identification from the viewpoint of optimization and distributed tracking control of fractional-order multi-agent systems (FOMASs) considering time delays, external disturbances, inherent nonlinearity, parameters uncertainties, and heterogeneity under fixed undirected/directed communication topology. Several efficient controllers are designed to achieve the distributed tracking control of FOMASs successfully under different conditions. Several kinds of artificial intelligence optimization algorithms andtheir modified versions are applied to identify the unknown parameters of the FOMASs with high accuracy, fast convergence and strong robustness. It should be noted that this thesis provides a promising link between the artificial intelligence technique and distributed control
APA, Harvard, Vancouver, ISO, and other styles
3

Seyed, Aghamiry Seyed Hossein. "Imagerie sismique multi-paramètre par reconstruction de champs d'ondes : apport de la méthode des multiplicateurs de Lagrange avec directions alternées (ADMM) et des régularisations hybrides." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4090.

Full text
Abstract:
La FWI (Full Waveform Inversion) est un problème d'optimisation sous contraintes dédié à l'estimation des paramètres constitutifs du sous-sol à partir de mesures parcimonieuses des champs d'ondes sismiques. La FWI est fondée sur des approches locales d'optimisation et sur un espace de recherche réduit obtenu par projection de variables. La non linéarité et le caractère mal posé de la FWI sont deux difficultés majeures. Une source de non linéarité est liée au repliement de la phase, qui conduit à un minimum local dès que le modèle initial n'est pas suffisamment précis. Le caractère mal posé résulte de l'éclairage incomplet du sous-sol depuis la surface, le bruit et les couplages inter-paramètres. L'objectif de cette thèse est de réduire ces deux pathologies par de nouvelles approches d'optimisation et de régularisation. J'améliore tout d'abord la méthode d'inversion par reconstruction des champs d'onde (WRI : Wavefield Reconstruction Inversion). WRI étend l'espace de recherche en calculant les champs d'onde avec une relaxation de l'équation d'onde afin d'ajuster les données avec des modèles imprécis avant d'estimer les paramètres en minimisant les erreurs générées par cette relaxation. Quand ces deux estimations sont effectuées de manière alternée, WRI décompose l'inversion non linéaire en deux sous-problèmes linéaires en vertu de la bilinéarité de l'équation d'onde. WRI a été implémentée avec une méthode de pénalité, nécessitant une adaptation du paramètre de pénalité lors des itérations. Je remédie à cela avec ADMM (Alternating-Direction Method of Multipliers), qui concilie l'extension de l'espace de recherche et la précision de la solution au point de convergence avec un paramètre de pénalité fixe grâce à la mise à jour itérative des multiplicateurs de Lagrange. Une seconde contribution est l'implémentation de contraintes de bornes et de régularisation par variation totale (TV) dans WRI. Suivant la méthode de Split Bregman, des variables auxiliaires permettent de découpler les termes impliquant des normes ℓ2 et ℓ1 et de traiter les seconds efficacement avec des opérateurs de proximité. Ensuite, j'ai combiné une régularisation de Tikhonov et de TV par convolution infimale pour prendre en compte les différentes propriétés statistiques du milieu (constantes par morceau et lisses). Ma thèse aborde ensuite des reconstructions multi-paramètres. Je montre dans un premier temps que la bilinéarité de l'équation d'onde est vérifiée pour les équations de l'elastodynamique. Ensuite, je traite le cas de milieux acoustique VTI où je reconstruis conjointement la vitesse verticale et epsilon pour un modèle synthétique représentatif d'un champ pétrolier en mer du Nord. Je m'intéresse ensuite à l'imagerie de l'atténuation qui est introduite en domaine harmonique sous forme d'une vitesse complexe. J'étends WRI à la reconstruction de paramètres complexes tout en développant une régularisation adaptable à la vitesse réelle et au facteur de qualité. Durant les premières itérations, les champs d'onde reconstruits sont précis uniquement au voisinage des récepteurs. Les imprécisions de la phase pourraient avoir un rôle préjudiciable sur la solution de l'inversion. Afin de réduire cette empreinte, j'estime les paramètres par "phase retrieval", un processus qui vise la reconstruction d'un signal complexe à partir de l'amplitude de sa mesure linéaire. Une fois un premier modèle obtenu, je réinjecte l'information de la phase pour converger vers la solution finale. Je montre la pertinence de cette stratégie lorsque le modèle initial est homogène. WRI a été initialement développée dans le domaine fréquentiel car la reconstruction des champs d'onde y est raisonnablement aisée avec des méthodes d'algèbre linéaire. En domaine temporel, une approche fondée sur un schéma explicite d'intégration temporelle a été proposée mais repose sur une linéarisation autour des sources supposées connues
Full Waveform Inversion (FWI) is a PDE-constrained optimization which reconstructs subsurface parameters from sparse measurements of seismic wavefields. FWI generally relies on local optimization techniques and a reduced-space approach where the wavefields are eliminated from the variables. In this setting, two bottlenecks of FWI are nonlinearity and ill-posedness. One source of nonlinearity is cycle skipping, which drives the inversion to spurious minima when the starting subsurface model is not kinematically accurate enough. Ill-posedness can result from incomplete subsurface illumination, noise and parameter cross-talks. This thesis aims to mitigate these pathologies with new optimization and regularization strategies. I first improve the wavefield reconstruction method (WRI). WRI extends the FWI search space by computing wavefields with a relaxation of the wave equation to match the data from inaccurate parameters. Then, the parameters are updated by minimizing wave equation errors with either alternating optimization or variable projection. In the former case, WRI breaks down FWI into to linear subproblems thanks to wave equation bilinearity. WRI was initially implemented with a penalty method, which requires a tedious adaptation of the penalty parameter in iterations. Here, I replace the penalty method by the alternating-direction method of multipliers (ADMM). I show with numerical examples how ADMM conciliates the search space extension and the accuracy of the solution at the convergence point with fixed penalty parameters thanks to the dual ascent update of the Lagrange multipliers. The second contribution is the implementation of bound constraints and non smooth Total Variation (TV) regularization in ADMM-based WRI. Following the Split Bregman method, suitable auxiliary variables allow for the de-coupling of the ℓ1 and ℓ2 subproblems, the former being solved efficiently with proximity operators. Then, I combine Tikhonov and TV regularizations by infimal convolution to account for the different statistical properties of the subsurface (smoothness and blockiness). At the next step, I show the ability of sparse promoting regularization in reconstruction the model when ultralong offset sparse fixed-spread acquisition such as those carried out with OBN are used. This thesis continues with the extension of the ADMM-based WRI to multiparameter reconstruction in vertical transversely isotropic (VTI) acoustic media. I first show that the bilinearity of the wave equation is satisfied for the elastodynamic equations. I discuss the joint reconstruction of the vertical wavespeed and epsilon in VTI media. Second, I develop ADMM-based WRI for attenuation imaging, where I update wavefield, squared-slowness, and attenuation in an alternating mode since viscoacoustic wave equation can be approximated, with a high degree of accuracy, as a multilinear equation. This alternating solving provides the necessary flexibility to taylor the regularization to each parameter class and invert large data sets. Then, I overcome some limitations of ADMM-based WRI when a crude initial model is used. In this case, the reconstructed wavefields are accurate only near the receivers. The inaccuracy of phase of the wavefields may be the leading factor which drives the inversion towards spurious minimizers. To mitigate the role of the phase during the early iterations, I update the parameters with phase retrieval, a process which reconstructs a signal from magnitude of linear mesurements. This approach combined with efficient regularizations leads to more accurate reconstruction of the shallow structure, which is decisive to drive ADMM-based WRI toward good solutions at higher frequencies. The last part of this PhD is devoted to time-domain WRI, where a challenge is to perform accurate wavefield reconstruction with acceptable computational cost
APA, Harvard, Vancouver, ISO, and other styles
4

Farshad, Milad. "Multi-parameter seismic linear waveform imaging." Electronic Thesis or Diss., Université Paris sciences et lettres, 2021. http://www.theses.fr/2021UPSLM069.

Full text
Abstract:
L’imagerie sismique est l’une des méthodes les plus pertinentes pour l’estimation des paramètres physiques (vitesse, densité, …) depuis l’acquisition de données en surface. Avec l’hypothèse de séparation d’échelles, plusieurs méthodes d’imagerie décomposent le modèle de vitesse entre un macro-modèle lisse et un modèle de réflectivité. Le but des techniques de migration est de déterminer la réflectivité dans un macro-modèle donné. Parmi différentes solutions, la Reverse Time Migration (RTM) est devenue la méthode de choix pour les milieux complexes. Par définition, RTM est l’adjoint de l’opérateur de Born et souffre de différents artéfacts de migration. Des développements récents ont permis d’analyser la RTM avec une approche asymptotique. Ils ont conduit à une méthode directe pour inverser l’opérateur de modélisation, et apporter une solution quantitative en une seule itération. L’inverse direct suppose un milieu acoustique à densité constante, ce qui représente une limite forte pour les applications pratiques. Dans cette thèse, j’ai d’abord étendu l’applicabilité de l’inverse direct depuis une densité constante à une densité variable et vers les milieux élastiques. Dans le cadre de l’imagerie multi-paramètres, la principale limitation est la non unicité de la solution. Pour cela, je propose d’ajouter des contraintes avec une norme l1 sur chacune des classes de paramètres. De plus, je propose d’utiliser l’inverse direct pour accélérer la convergence de la RTM multi-paramètres. Les méthodologies sont développées et analysées sur des données synthétiques 2D et sur un cas réel marin
Seismic imaging is one of the most effective methods for estimating the Earth’s physical parameters from seismic data. Based on the assumption of scale separation, several imaging methods split the velocity model into a smooth background model and a reflectivity model. The goal of Migration techniques is to determine the reflectivity in a given background model. Among different migration algorithms, reverse time migration (RTM) has become the method of choice in complex geologic structures. By definition, RTM is the adjoint of the linearized Born modeling operator and suffers from various migration artifacts. Recent developments recast the asymptotic inversion in the context of RTM. They determine a direct method to invert the Born modeling operator, providing quantitative results within a single iteration. The direct inverse is based on constant-density acoustic media, which is a limiting factor for practical applications. In this thesis, I first extend the applicability of direct inverse from constant-density acoustic to variable-acoustic acoustic and elastic media. In the concept of the multi-parameter imaging, the main limitation is the non-uniqueness of the inversion results. To tackle the ill-posedness of the inverse problem, I propose to add independently l1-norm constraints to each inverted parameter as regularization terms. Furthermore, I utilize the direct inverse to accelerate the convergence rate of multi-parameter least-squares RTM. The methodologies are developed and analyzed on 2D synthetic datasets and a marine real dataset
APA, Harvard, Vancouver, ISO, and other styles
5

Baamara, Youcef. "Gaz quantiques, corrélations et métrologie quantique." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS482.

Full text
Abstract:
Dans la première partie de cette thèse, nous explorons le potentiel des états de spin non gaussiens, en proposant des cadres analytiques et en suggérant des implémentations pratiques, pour améliorer la précision dans les applications d'estimation de paramètres et de cartographie de champs. Nous identifions initialement le gain quantique offert par les états de spin surcomprimés générés par la dynamique dite "one-axis twisting" en fonction du temps, en tenant compte systématiquement de différents processus de décohérence. Malgré un avantage quantique métrologique dépassant celui des états comprimés de spin gaussiens, l'extraction de cet avantage quantique important dans les protocoles d'estimation de paramètres nécessite la mesure d'observables qui sont des fonctions non linéaires des trois composantes du spin collectif. Nous montrons ici l'efficacité des techniques de mesure après interaction, reconnues pour amplifier les signaux de sortie dans les protocoles d'estimation de paramètres quantiques, dans la mesure d'observables de spin collectif non linéaires. En examinant un système composé d'atomes distribués dans des modes spatialement séparés et individuellement accessibles, nous établissons alors qu'un gain quantique significatif, correspondant aux états comprimés et surcomprimés de spin, peut être obtenu dans les protocoles d'estimation multi-paramètres par la mesure des coefficients de Hadamard d'un signal 1D ou 2D. En combinant cela avec des techniques de compression d'image, nous montrons enfin que cette approche peut être rendue pratique. Dans la deuxième partie de cette thèse, nous étendons les inégalités de Bell et les témoins de corrélation non locale tels que présentés précédemment dans la littérature aux scénarios impliquant un ensemble d'atomes distribués sur des sites de réseau, avec une probabilité non nulle de rencontrer des sites qui peuvent être soit vides, soit doublement occupés
In the initial part of this thesis, we explore the potential of non-Gaussian spin states, offering analytical frameworks and suggesting practical implementations, to enhance precision in parameter estimation and field mapping applications. Initially, we identify the scaling behavior of the quantum gain offered by over-squeezed spin states induced through one-axis twisting as a function of time, taking systematically into account pertinent decoherence processes. Despite exhibiting a quantum metrological advantage surpassing that of spin-squeezed Gaussian states, the extraction of such large quantum gain in parameter estimation protocols requires measuring observables that are nonlinear functions of the three components of the collective spin. Subsequently, we illustrate the efficacy of measurement-after-interaction techniques, known for amplifying output signals in quantum parameter estimation protocols, in measuring nonlinear collective spin observables. By examining a system comprising atoms distributed in spatially separated and individually accessible modes, we then establish that a substantial quantum gain, corresponding to squeezed and over-squeezed spin states, can be achieved in multiparameter estimation protocols through the measurement of Hadamard coefficients of a 1D or 2D signal. When combined with image processing techniques, we finally show that this approach can be made practical. In the second part of this thesis, we extend the Bell inequalities and nonlocal correlation witnesses as previously presented in the literature to scenarios involving a set of atoms distributed across lattice sites, with non-zero probability of encountering sites that may be either empty or doubly occupied
APA, Harvard, Vancouver, ISO, and other styles
6

Peng, Ting. "Nouveaux modèles de contours actifs d'ordre supérieur, formes «a priori» et analyse multi-échelle : leurs application à l'extraction de réseaux routiers à partir des images satellitaires à très haute résolution." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00349768.

Full text
Abstract:
L'objectif de cette thèse est de développer et de valider des approches robustes d'extraction semi-automatique de réseaux routiers en zone urbaine dense à partir d'images satellitaires optiques à très haute résolution (THR). Nos modèles sont fondés sur une modélisation par champs de phase des contours actifs d'ordre supérieur (CAOS). Le probléme est difficile pour deux raisons principales : les images THR sont intrinsèquement complexes, et certaines zones des réseaux peuvent prendre une topologie arbitraire. Pour remédier à la complexité de l'information contenue dans les images THR, nous proposons une modélisation statistique multi-résolution des données ainsi qu'un modèle multi-résolution contraint a priori. Ces derniers permettent l'intégration des résultats de segmentation de résolution brute et de résolution fine. De plus, dans le cadre particulier de la mise à jour de réseaux routiers, nous présentons un modèle de forme a priori spécifique, dérivé d'une ancienne carte numérique issue d'un SIG. Ce terme spécifique a priori équilibre l'effet de la connaissance a priori générique apportée par le modèle de CAOS, qui décrit la forme géométrique générale des réseaux routiers. Cependant, le modèle classique de CAOS souffre d'une limitation importante : la largeur des branches du réseau est contrainte à d'être similaire au maximum du rayon de courbure des branches du réseau, fournissant ainsi un modèle non satisfaisant dans le cas de réseaux aux branches droites et étroites ou aux branches fortement incurvées et larges. Nous résolvons ce problème en proposant deux nouveaux modèles : l'un contenant un terme additionnel, nonlocal, non-linéaire de CAOS, et l'autre contenant un terme additionnel, nonlocal, linéaire de CAOS. Ces deux termes permettent le contrôle séparé de la largeur et de la courbure des branches, et fournissent une meilleure prolongation pour une même largeur. Le terme linéaire a plusieurs avantages : d'une part il se calcule plus efficacement, d'autre part il peut modéliser plusieurs largeurs de branche simultanément. Afin de remédier à la difficulté du choix des paramètres de ces modèles, nous analysons les conditions de stabilité pour une longue barre d'une largeur donnée décrite par ces énergies, et montrons ainsi comment choisir rigoureusement les paramètres des fonctions d'énergie. Des expériences sur des images satellitaires THR et la comparaison avec d'autres modèles démontrent la supériorité de nos modèles.
APA, Harvard, Vancouver, ISO, and other styles
7

Li, Zhongyang. "Suivi de multi-modulations non linéaires pour la surveillance." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00935243.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour modéliser les fonctions non linéaires de modulations d'amplitude et de fréquence de signaux multicomposantes non stationnaires de durée longue. La méthode repose sur une décomposition du signal en segments courts pour une modélisation locale sur les segments. Pour initialiser la modélisation, nous avons conçu une première étape qui peut être considérée comme un estimateur indépendant et non paramétrique des fonctions de modulations. L'originalité de l'approche réside dans la définition d'une matrice de convergence totale intégrant simultanément les valeurs d'amplitude et de fréquence et utilisé pour l'association d'un pic à une composante selon un critère d'acceptation stochastique. Suite à cette initialisation, la méthode estime les fonctions de modulations par l'enchaînement des étapes de segmentation, modélisation et fusion. Les fonctions de modulations estimées localement par maximum de vraisemblance sont connectées dans l'étape de fusion, qui supprime les discontinuités, et produit l'estimation globale sur la durée totale du signal. Les étapes sont conçues afin de pouvoir modéliser des signaux multicomposantes avec des morts et naissances, ce qui en fait une de ses originalités par rapport aux techniques existantes. Les résultats sur des signaux réels et simulés ont illustré les bonnes performances et l'adaptabilité de la méthode proposée.
APA, Harvard, Vancouver, ISO, and other styles
8

Ramos, Corchado Félix Francisco. "Une approche multi-agents pour le placement dynamique de requêtes dans les systèmes globaux." Compiègne, 1997. http://www.theses.fr/1997COMP1026.

Full text
Abstract:
Le placement dynamique de requêtes dans un système d'information global consiste à exploiter de manière transparente l'importante quantité d'information disponible dans le système en s'adaptant dynamiquement aux évolutions de l'environnement et aux caractéristiques des requêtes. Dans ce travail notre objectif est d'optimiser l'utilisation des ressources disponibles et le coût de la communication afin de réduire le temps de réponse. Nous utilisons une approche multi-agents pour mettre en oeuvre quatre stratégies de placement dynamique de requêtes. Dans la première stratégie, afin de réduire les appels au processus de négociation, les agents placeurs apprennent les identités des agents réactifs lui ayant proposé ses services. La deuxième stratégie combine la stratégie aléatoire avec les connaissances acquises par les agents placeurs des expériences du passé pour placer la requête. La stratégie suivante raffine les connaissances des agents placeurs en définissant une qualité de service, qui est utilisée pour choisir l'agent réactif qui exécutera la requête dès l'arrivée de la requête. La dernière stratégie permet aux agents réactifs de proposer leurs services à leurs clients potentiels en fonction de leurs besoins. Nos quatre stratégies de placement ont été validées par des simulations et par une implémentation de taille intranet. Les résultats des simulations montrent que nos stratégies de placement dynamique diminuent le temps de réponse des requêtes soumises au système et bénéficient d'une réduction du coût de communication très significative. Afin de prendre en compte la topologie du réseau sous-jacent tout en gardant l'intérêt sur l'économie des messages. Au chapitre quatre nous proposons deux techniques pour le placement dynamique de requêtes basées sur les arbres couvrants. Cette approche nous permet de prendre en compte des autres caractéristiques que la topologie du réseau sous-jacent afin de router les requêtes de proche en proche, par exemple la distance physique entre les sites ou la charge des canaux. Les deux stratégies ont été validées par simulation et les résultats sont présentés dans la quatrième partie du document. Finalement, au chapitre cinq, nous concluons sur les résultats de nos travaux et donnons les perspectives.
APA, Harvard, Vancouver, ISO, and other styles
9

Moreau, Antoine. "Calcul des propriétés homogénéisées de transfert dans les matériaux poreux par des méthodes de réduction de modèle : Application aux matériaux cimentaires." Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS024.

Full text
Abstract:
Cette thèse propose de coupler deux outils préexistant pour la modélisation mathématique en mécanique : l’homogénéisation périodique et la réduction de modèle, afin de modéliser la corrosion des structures de béton armé exposées à la pollution atmosphérique et au sel marin. Cette dégradation est en effet difficile à simuler numériquement, eu égard la forte hétérogénéité des matériaux concernés, et la variabilité de leur microstructure. L’homogénéisation périodique fournit un modèle multi-échelle permettant de s’affranchir de la première de ces deux difficultés. Néanmoins, elle repose sur l’existence d’un volume élémentaire représentatif (VER) de la microstructure du matériau poreux modélisé. Afin de prendre en compte la variabilité de cette dernière, on est amenés à résoudre en temps réduit les équations issues du modèle multi-échelle pour un grand nombre VER. Ceci motive l’utilisation de la méthode POD de réduction de modèle. Cette thèse propose de recourir à des transformations géométriques pour transporter ces équations sur la phase fluide d’un VER de référence. La méthode POD ne peut, en effet, pas être utilisée directement sur un domaine spatial variable (ici le réseau de pores du matériau). Dans un deuxième temps, on adapte ce nouvel outil à l’équation de Poisson-Boltzmann, fortement non linéaire, qui régit la diffusion ionique à l’échelle de la longueur de Debye. Enfin, on combine ces nouvelles méthodes à des techniques existant en réduction de modèle (MPS, interpolation ITSGM), pour tenir compte du couplage micro-macroscopique entre les équations issues de l’homogénéisation périodique
In this thesis, we manage to combine two existing tools in mechanics: periodic homogenization, and reduced-order modelling, to modelize corrosion of reinforced concrete structures. Indeed, chloride and carbonate diffusion take place their pores and eventually oxydate their steel skeleton. The simulation of this degradation is difficult to afford because of both the material heterogenenity, and its microstructure variability. Periodic homogenization provides a multiscale model which takes care of the first of these issues. Nevertheless, it assumes the existence of a representative elementary volume (REV) of the material at the microscopical scale. I order to afford the microstructure variability, we must solve the equations which arise from periodic homogenization in a reduced time. This motivates the use of model order reduction, and especially the POD. In this work we design geometrical transformations that transport the original homogenization equations on the fluid domain of a unique REV. Indeed, the POD method can’t be directly performed on a variable geometrical space like the material pore network. Secondly, we adapt model order reduction to the Poisson-Boltzmann equation, which is strongly nonlinear, and which rules ionic electro diffusion at the Debye length scale. Finally, we combine these new methods to other existing tools in model order reduction (ITSGM interpolatin, MPS method), in order to couple the micro- and macroscopic components of periodic homogenization
APA, Harvard, Vancouver, ISO, and other styles
10

Zehtabian, Shohre. "Development of new scenario decomposition techniques for linear and nonlinear stochastic programming." Thèse, 2016. http://hdl.handle.net/1866/16182.

Full text
Abstract:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
In the literature of optimization problems under uncertainty a common approach of dealing with two- and multi-stage problems is to use scenario analysis. To do so, the uncertainty of some data in the problem is modeled by stage specific random vectors with finite supports. Each realization is called a scenario. By using scenarios, it is possible to study smaller versions (subproblems) of the underlying problem. As a scenario decomposition technique, the progressive hedging algorithm is one of the most popular methods in multi-stage stochastic programming problems. In spite of full decomposition over scenarios, progressive hedging efficiency is greatly sensitive to some practical aspects, such as the choice of the penalty parameter and handling the quadratic term in the augmented Lagrangian objective function. For the choice of the penalty parameter, we review some of the popular methods, and design a novel adaptive strategy that aims to better follow the algorithm process. Numerical experiments on linear multistage stochastic test problems suggest that most of the existing techniques may exhibit premature convergence to a sub-optimal solution or converge to the optimal solution, but at a very slow rate. In contrast, the new strategy appears to be robust and efficient, converging to optimality in all our experiments and being the fastest in most of them. For the question of handling the quadratic term, we review some existing techniques and we suggest to replace the quadratic term with a linear one. Although this method has yet to be tested, we have the intuition that it will reduce some numerical and theoretical difficulties of progressive hedging in linear problems.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography