Auswahl der wissenschaftlichen Literatur zum Thema „Calcul à réservoir“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Calcul à réservoir" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Calcul à réservoir"

1

Morel-Seytoux, H. J. „Gestion optimale d'un réservoir en avenir déterminé“. Revue des sciences de l'eau 11, Nr. 4 (12.04.2005): 569–98. http://dx.doi.org/10.7202/705322ar.

Der volle Inhalt der Quelle
Annotation:
Massé, dans ses deux volumes (1946), discute le problème de la gestion optimale des lâchures dans le cas d'un seul réservoir quand le bénéfice est dérivé de la production d'énergie hydroélectrique. Massé obtint ses résultats à la fois par un raisonnement économique et par une généralisation du Calcul des Variations. Sa méthode lui permit de fournir la preuve rigoureuse de la méthode graphique de Varlet (1923), dite du "fil tendu". Dans cet article on généralise la procédure de Massé au cas où (1) le bénéfice est réalisé bien en aval du point de lâchure, et (2) il y a plusieurs "point-cibles" (points où un certain objectif doit être assuré). Massé avait trouvé que la gestion optimale est celle qui maintient la valeur marginale du bénéfice constante dans le temps, pourvu que la gestion soit en régime libre, c' est à dire tant que le réservoir ne fonctionne ni à plein ni à vide. Par contre si le réservoir fonctionne par exemple à plein, Massé montra que la stratégie qui consiste à garder le réservoir plein ne peut être optimale que si la valeur marginale du bénéfice croît constamment avec le temps durant la période où le réservoir reste plein. On montre de manière rigoureuse dans le cas général que pour une gestion optimale ce qui doit rester constant c' est la valeur marginale future du bénéfice. Dans un article ultérieur on fournira la généralisation pour plusieurs réservoirs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Zahar, Y., und J. P. Laborde. „Une méthode stochastique pour la prédétermination des fluctuations probables des durées de service des réservoirs collinaires en Tunisie“. Revue des sciences de l'eau 11, Nr. 1 (12.04.2005): 25–42. http://dx.doi.org/10.7202/705295ar.

Der volle Inhalt der Quelle
Annotation:
Un modèle de génération stochastique de pluies est couplé ˆ un modèle de calcul de l'index de leurs érosivités, dérivé de l'Equation Universelle de l'Erosion des Sols (USLE). Le premier fonctionne au pas de temps de 30mn, il est calé sur une série pluviographique de 15 ans de la Tunisie centrale. Le second modèle fonctionne par calcul automatique des cumuls et moyennes de l'érosivité des pluies générées. En mode opérationnel, ces deux modèles sont exploités pour simuler les aléas de l'envasement annuel des réservoirs collinaires de la zone aride et semi-aride de la Tunisie : le bassin versant est considéré comme une "boite noire" où l'agressivité climatique est la principale variable (quelques pluies extrêmes font l'essentiel de l'érosion), les autres facteurs sont considérés constants durant la durée de service du réservoir. Nous observons sur trois bassins versants répartis du nord au sud de la frange comprise entre 500mm et 250mm (de pluie moyenne annuelle), que la distribution annuelle des index d'érosivité des pluies peut être assimilée ˆ la distribution des transports solides. Sur l'un de ces bassins versants (OUED EL HISSIANE : 15,9 ) nous observons également que les valeurs extrêmes de l'érosion sont proportionnelles aux valeurs extrêmes de l'index d'érosivité des pluies. Seulement l'automne et le printemps sont des saisons érosives. Dans le cas de petits bassins versants non-jaugés, comme ceux pour l'aménagement de réservoirs collinaires, le générateur nous permet de constituer des chroniques d'érosivité de pluie. Si on considère que les autres paramètres sont constants, ce modèle nous aide à déterminer les intervalles de confiance de durées de service probables. Une analyse de sensibilité par la modification des paramètres du générateur (nombre d'épisodes, hauteur de pluie, maximum et durée d'averse etc ...) valide la méthodologie. De même une analyse régionale montre les faibles fluctuations des résultats sur l'étendue aride et semi-aride de la Tunisie. Ces deux résultats nous ont conduit à proposer un abaque régional de prédétermination des fluctuations probables des durées de service des réservoirs collinaires, compte tenu de la connaissance préalable de la durée de service moyenne probable. Cette méthode directement opérationnelle peut être utilisée pour l'aménagement, la planification, et la gestion des réservoirs collinaires. Elle améliore les études de faisabilité, notamment lorsqu'on la couple aux calculs économiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

François, Paul. „La restitution architecturale et hydraulique du rampant des Massues sur l’aqueduc de la Brévenne à Lyon et ses conséquences sur l’aval du parcours“. Gallia 80, Nr. 1 (2023): 157–66. http://dx.doi.org/10.4000/11ud1.

Der volle Inhalt der Quelle
Annotation:
Cet article entend proposer une restitution du rampant des Massues, extrémité orientale du siphon d’Écully-Tassin sur le parcours de l’aqueduc de la Brévenne acheminant l’eau jusqu’à Lyon. Outre une restitution architecturale en 3D basée sur les dernières observations archéologiques, il s’agit également d’étudier les conséquences de cette restitution sur le débit admissible de cette structure et sur la suite du parcours de l’aqueduc, depuis le rampant des Massues jusqu’à la colline de Fourvière. En détaillant une méthode accessible de calcul du débit dans un siphon, il est possible de montrer que la restitution choisie, en portant l’altitude du réservoir de fuite à 290 m, autorise un débit maximal de 20 000 à 25 000 m3·jour−1 dans le siphon d’Écully-Tassin selon les estimations de l’altitude du réservoir de chasse. Une telle altitude implique de revoir la morphologie du canal dans la suite du parcours, celui-ci prenant probablement la forme d’une file d’arches de près de 2 000 m avec des hauteurs supérieures à 15 m en plusieurs points. Enfin, en maintenant une pente raisonnable, il serait possible d’atteindre la colline de Fourvière à une altitude de 287,50 m et finalement d’alimenter en eau la fontaine du Verbe Incarné.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Adorni-Braccesi, A., M. Acutis, S. Merlo und G. M. Zuppi. „Application des techniques physiques, géochimiques et isotopiques pour l'évaluation de l'infiltration sous climat tempéré“. Revue des sciences de l'eau 14, Nr. 3 (12.04.2005): 243–63. http://dx.doi.org/10.7202/705419ar.

Der volle Inhalt der Quelle
Annotation:
Depuis plusieurs années, la Zone Non Saturée d'une parcelle expérimentale au nord de l'Italie (plaine du Pô) a fait l'objet de nombreuses études sur les caractéristiques physiques et géologiques du milieu, ainsi que sur les modalités du mouvement des eaux d'infiltration. Le site a été équipé de 6 tensiomètres à mercure, 6 bougies poreuses pour l'échantillonnage de l'eau et d'un tube d'accès pour la sonde à neutrons. L'application des différentes méthodes d'évaluation a fourni, pour la période d'étude (Septembre 1994-Août 1995), des valeurs de l'infiltration sensiblement différentes. La méthode physique, basée sur le calcul du bilan hydrique annuel, et considérant le sol comme un unique réservoir monocouche, a indiqué que 19% du total des précipitations arrive à s'infiltrer. D'autre part, un modèle de simulation intégrant les caractéristiques hydrodynamiques du sol a permis d'évaluer la recharge à 29% des précipitations annuelles. Le calcul de la répartition de la teneur en eau sur le profil porte sur la description des fluctuations temporelles du plan de flux nul, en relation avec les épisodes pluvieux et l'intensité de l'évaporation. La méthode géochimique du "profil en ions conservés" entre l'eau de pluie et du sol a permis, quant à elle, d'évaluer la lame d'eau infiltrée à environ 12% des précipitations annuelles. La composition isotopique des eaux extraites du sol manifeste un enrichissement global en isotopes lourds (2H et 18O) par rapport aux eaux météoriques, conséquence d'une évaporation intense. L'infiltration semble être de type "piston flow" dispersif. Elle suit, seulement pendant l'hiver, un flux où la composante convective dans la microporosité est prédominante sur la composante diffusive qui a lieu, de préférence, dans la macroporosité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chebbah, Lynda, Lakhdar Djemili, Mohammed Tawfik Bouziane und Mohamed Chiblak. „Modélisation d'un masque en béton bitumineux (brut et protégé) sous sollicitations thermiques en régime transitoire. cas du masque de barrage Ghrib (Ain Defla, Algérie)“. La Houille Blanche, Nr. 1 (Februar 2020): 42–49. http://dx.doi.org/10.1051/lhb/2019064.

Der volle Inhalt der Quelle
Annotation:
Le masque en béton bitumineux est l'un des organes les plus utilisés pour l'étanchéité des barrages en remblai. Le parement en béton bitumineux est, en particulier dans le cas des installations de stockage par pompage hydroélectriques, sont souvent très exposé à des fluctuations importantes de température, qui sont causées par la radiation solaire, la variation du niveau d'eau dans le réservoir, par le gel dans la saison d'hiver, ainsi que la vitesse et la direction du vent, sans oublier les précipitations. Pour mieux expliquer le phénomène de transfert de chaleur, il est nécessaire de connaître les variations de température dans les différentes couches du masque en béton bitumineux. Ce travail décrit la mesure de la température dans le masque en béton bitumineux (brut et avec protection) du barrage Ghrib (Ain Defla, Algérie) et son évaluation à l'aide d'un modèle numérique du transfert de chaleur dans le parement en béton bitumineux en utilisant le logiciel Fluent. Dans un premier temps une validation du modèle par comparaison avec des mesures expérimentales, dans le cas d'une variation journalière de température ambiante, La comparaison des résultats du calcul du modèle numérique avec les mesures réelles montre une excellente ressemblance. Nous simulons ensuite la pose d'une protection thermique en ajoutons une couche convective en béton poreux. Les résultats de cette simulation montrent que le transfert de chaleur par convection possède le potentiel de développer une différence de température significative entre les parties inférieure et supérieure du masque, et aussi que l'ajout de cette couche permet d'amortir le pic de température et le réduire à 12,31 °C, ceci de 9 h jusqu'à 15 h au moment où la chaleur est très élevée, ce qui est significatif pour notre masque, où les températures atteignant leurs valeurs maximales (49 °C).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lacapère, Jérôme, und Bruno Vieille. „Application du calcul numérique à la dépressurisation des réservoirs cryogéniques en microgravité“. Mécanique & Industries 5, Nr. 5 (September 2004): 559–63. http://dx.doi.org/10.1051/meca:2004057.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Laglaine, V., D. Berod, D. Devred und A. Musy. „Modélisation déterministe de la crue extrême d'un bassin versant de montagne avec application de la description géomorphologique du réseau hydrographique“. Revue des sciences de l'eau 7, Nr. 3 (12.04.2005): 285–308. http://dx.doi.org/10.7202/705202ar.

Der volle Inhalt der Quelle
Annotation:
Les méthodes de calcul des crues de projet pour des grands barrages sont de type statistique ou de type déterministe (PMP/PMF). Ce dernier type de méthodes est principalement utilisé dans le monde anglo-saxon (États-Unis, Australie), mais peut offrir une alternative intéressante aux méthodes statistiques, qui présentent des lacunes pouvant être importantes. Une application des méthodes PMP/PMF sur des bassins suisses a mis en évidence l'intérêt de ces méthodes, mais aussi leurs faiblesses. Une adaptation des outils déterministes est nécessaire pour prendre en compte les particularités des bassins de montagne. Il s'agit principalement de mieux tenir compte des propriétés physiques des bassins versants et des phénomènes de non linéarité. Dans ce but, un concept de modélisation utilisant la description géomorphologique du bassin versant a été utilisé et amélioré. Le premier modèle utilisé est l'hydrogramme unitaire géomorphologique, qui existe depuis 1979. Le deuxième modèle utilise le concept de cascade de réservoirs hydrologiques à vidange non linéaire, dont les éléments sont issus de la description géomorphologique du bassin. C'est là une modélisation nouvelle qui est particulièrement adaptée au contexte des crues extrêmes dans les Alpes. Un travail de calibration et validation du modèle a montré que ce modèle a un bon potentiel d'utilisation. La principale difficulté revient à identifier la signification physique des paramètres du modèle, qui pourrait s'appuyer sur les résultats d'un autre type de modélisation couplant la géomorphologie du bassin aux equations de l'onde cinématique. Ce modèle est en cours de test à l'IATE.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Maman Bachar Ibrahima Oumarou, Maman Bachar, Mahaman Moustapha Adamou und Souley Tchagam Tchagam Agi. „Quantification de la Réserve Régulatrice d’une Nappe Alluviale dans un Contexte d’Irrigation : Cas de la Vallée de Boghol dans le Massif de l’Aïr (Niger)“. European Scientific Journal, ESJ 20, Nr. 21 (31.07.2024): 71. http://dx.doi.org/10.19044/esj.2024.v20n21p71.

Der volle Inhalt der Quelle
Annotation:
La vallée de Boghol est l’un des principaux bassins de production agricole du massif de l’Aïr. L’agriculture est exclusivement pratiquée sous forme irriguée avec les eaux souterraines. Ces dernières sont renouvelées grâce aux écoulements issus des pluies. Dans cette vallée l’irrigation connait des difficultés dues à l’insuffisance voire manque d’eau dans l’aquifère en compromettant le rendement. L’objectif de ce travail est d’évaluer quantitativement la réserve régulatrice de la nappe afin de garantir la durabilité de l’irrigation. L’approche méthodologique a consisté d’abord à subdiviser le bassin versant de Boghol en sous bassins correspondants aux réservoirs. Ensuite, un suivi piézométrique a permis d’appliquer la méthode « water table fluctuations » ou méthode de fluctuation des niveaux pour le calcul de la charge hydraulique. En fin, les caractéristiques géométriques de l’aquifère ont été déterminées en utilisant des images satellitaires Google earth interprétées sur ArcGIS 10.3. L’étude montre que les valeurs de la charge hydraulique dans les sous bassins amont, central et aval sont respectivement de 4,98 m ; 6,45 m ; et 6,1 m. La plaine a comme dimensions : longueur de 19,81 km ; largeur comprise entre 0,45 et 0,95 km ; surface, 14,37 km2. L’importance de la réserve régulatrice se dresse suivant l’ordre croissant : sous bassin amont, sous bassin aval et sous bassin central. Le volume d’alluvions saturées est estimé à 9 000 559,4 m3 dont 8 % correspondent à la réserve régulatrice totale qui est tributaire de la pluviométrie. Cependant, elle est impactée par l’irrigation faisant d’elle une réserve fragile. Ce résultat constitue un outil permettant de mieux prévoir les superficies et les cultures à irriguer. The Boghol valley is one of the main agricultural production basins of the Aïr massif. Agriculture is practiced exclusively in irrigated form with groundwater. The latter are renewed thanks to flows from the rains. In this valley irrigation is experiencing difficulties due to insufficient or lack of water in the aquifer by compromising yield. The objective of this work is to quantitatively evaluate the regulatory reserve of the water table in order to guarantee the sustainability of irrigation. The methodological approach consisted first of subdividing the Boghol watershed into sub-basins corresponding to the reservoirs. Then, a piezometric follow-up made it possible to apply the method «water table fluctuations» or method of fluctuation of the levels for the calculation of the hydraulic load. Finally, the geometric characteristics of the aquifer were determined using Google earth satellite images interpreted on ArcGIS 10.3. The study shows that the values of the hydraulic load in the upstream, central and downstream subbasins are 4.98 m; 6.45 m; and 6.1 m respectively. The plain has as dimensions: length of 19.81 km; width between 0.45 and 0.95 km; surface, 14.37 km2. The importance of the regulatory reserve rises in increasing order: upstream, downstream and central basin. The volume of saturated alluvium is estimated at 9 000 559.4 m3 of which 8 % corresponds to the total regulatory reserve which is dependent on rainfall. However, it is impacted by irrigation making it a fragile reserve. This result is a tool to better predict the areas and crops to be irrigated.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Lewis, C. F. M. „Geoscience Medallist 1. Understanding the Holocene Closed-Basin Phases (Lowstands) of the Laurentian Great Lakes and Their Significance“. Geoscience Canada 43, Nr. 3 (30.09.2016): 179. http://dx.doi.org/10.12789/geocanj.2016.43.102.

Der volle Inhalt der Quelle
Annotation:
The Laurentian Great Lakes are a chain of five large water bodies and connecting rivers that constitute the headwaters of the St. Lawrence River. Collectively they form one of the largest reservoirs of surface freshwater on the planet with an aggregate volume of >22,000 km3. Early interpretations of the postglacial lake history implicitly assumed that the Great Lakes always overflowed their outlets. A study of Lake Winnipeg which concluded that lack of water in a dry climate had dried that lake for millennia led to re-evaluation of the Great Lakes water-level history. Using the empirical information of glacioisostatic rebound derived from 14C-dated and uptilted Great Lake paleo-shorelines, a method of computation was developed to test the paradigm of continuous lake overflow. The method evaluated site and outlet uplift independently, and lowlevel indicators such as submerged tree stumps rooted beneath the present Great Lakes were found to be lower than the lowestpossible corresponding basin outlet. Results confirmed the low-level, closed-basin hydrological status of the early Great Lakes. This status is consistent with paleoclimatic inferences of aridity during the early Holocene before establishment of the present patterns of atmospheric circulation which now bring adequate precipitation to maintain the overflowing lakes. In a sense, the early to middle Holocene phase of dry climate and low water levels is a natural experiment to illustrate the sensitivity of the Great Lakes to climate change in this era of global warming, should their climate shift to one much drier than present, or future major diversions of their waters be permitted.RÉSUMÉLes Grands Lacs Laurentiens sont une chaine de cinq grandes étendues d’eau connectées par des rivières, constituant la source du Fleuve St-Laurent. Collectivement, ils forment un des plus grands réservoirs d’eau douce de surface de la planète avec un volume total de plus de >22,000 km3. Les premièresinterprétations de l’histoire postglaciaire des lacs supposaient implicitement que les Grands Lacs débordaient à leurs exutoires. Une étude du Lac Winnipeg, qui concluait qu’un déficit en eau durant un épisode de climat aride avait desséché le lac pendant des millénaires dans le passé, a mené à la réévaluation de l’histoire du niveau de l’eau des Grands Lacs. En utilisant des données empiriques du relèvement glacio-isostatique, dérivées de littoral anciens surélevés datés au 14C, une méthode de calcul a été développée pour tester le paradigme d’unedécharge lacustre continue. La méthode a évalué le soulèvement des sites et des exutoires indépendamment, et il a été constaté que les indicateurs de bas niveau tels que des troncs d’arbres submergés, enracinés en dessous des Grands Lacs actuels, étaient en fait sous le niveau de l’exutoire correspondant le plus bas. Les résultats confirment le bas niveau et le statut de basin hydrologique fermé des Grand Lacs dans le passé. Ce statut est cohérent avec des évidences paléoclimatiques d’aridité au début de l’Holocène, avant l’établissement des modes de circulation atmosphérique actuels qui apportent des quantités de précipitation adéquates au maintien des décharges lacustres. Dans un sens, la période climatique aride du début et du milieu de l’Holocène, et les bas niveaux d’eau constituent une expérience naturelle qui illustre la sensibilité des Grands Lacs aux changements climatiques, pertinent dans le contexte actuel de réchauffement global, surtout s’il s’avérait que leur climat devienne plus aride que présentement, ou que des diversions majeures des eaux soient permises.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Calcul à réservoir"

1

Duffaut, Yvan. „Calcul des modes d'oscillations d'un liquide dans un réservoir de satellite stabilisé par rotation“. Paris 6, 1994. http://www.theses.fr/1994PA066813.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Basterrech, Sebastián. „Apprentissage avec les réseaux de neurones aléatoires et les machines de calcul avec réservoir de neurones“. Rennes 1, 2012. http://www.theses.fr/2012REN1S178.

Der volle Inhalt der Quelle
Annotation:
Au cours de ces dernières années, un nouveau paradigme a été introduit dans le domaine de l'apprentissage automatique sous le nom de Reservoir Computing (RC). La croissance de ces méthodes a été rapide en raison de leur succès dans la résolution de problèmes d'apprentissage automatique et dans d'autres applications informatiques. L'une des premières méthodes de RC proposée a été le modèle Echo State Network (ESN). Dans cette thèse nous avons conçu une nouvelle technique d'initialisation du modèle ESN, qui est basée sur des cartes topographiques. Dans les années 80s, un nouvel outil d'apprentissage statistique mélangeant des concepts des réseaux de neurones et de la théorie des files d'attente a été proposé sous le nom de Réseau de Neurones Aléatoires (RNNs). Nous développons de nouvelles techniques d'apprentissage (de type Quasi-Newton) pour ces outils, basées dans ce qui se fait de mieux dans le domaine des réseaux de neurones classiques. Par la suite, nous proposons un nouvel outil bien adapté à la prédiction de séries temporelles comme le trafic observé dans un point de l'Internet, que nous avons appelé Echo State Queueing Networks. Notre dernière contribution est la proposition de nouvelles idées pour la mesure de la qualité perceptuelle. La qualité de l'audio ou la voix sur Internet est fortement affectée par l'état du réseau. L'outil PESQ (Perceptual Evaluation of Speech Quality) sous recommandation ITU-T P. 862, permet d'évaluer la qualité de la voix transmise par un système de télécommunications. PESQ est un procédé fournissant de façon automatique une évaluation précise réalisée en comparant les signaux originaux et ceux reçus. Nous avons développé un outil pour mesurer la qualité des flux VoIP en estimant PESQ à l'aide des outils d'apprentissage statistique précédemment présentés. Ceci permet d'estimer la qualité des flux VoIP de façon automatique, en temps réel et sans avoir recours aux signaux d'origine
Since the 1980s a new computational model merging concepts from neural networks and queuing theory was developed. The model was introduced under the name of Random Neural Networks (RNNs), inside the field of Neural Networks. In this thesis, a first contribution consists of an adaptation of quasi-Newton optimisation methods for training the RNN model. In the last decade, a new computational paradigm was introduced in the field of Machine Learning, under the name of Reservoir Computing (RC). One of the pioneers and most diffused RC methods is the Echo State Network (ESN) model. Here, we propose a method based on topographic maps to initialise the ESN procedure. Another contribution of the thesis is the introduction of a new RC model called the Echo State Queueing Network (ESQN), where we use ideas coming from RNNs for the design of the reservoir. An ESQN consists of an ESN where the reservoir has a new dynamics inspired by recurrent RNNs. In this thesis, we position the ESQN method in the global Machine Learning area, and provide examples of their use and performances. Finally, we propose a method for real–time estimation of Speech Quality using the learning tools above described. Audio quality in the Internet can be strongly affected by network conditions. As a consequence, many techniques to evaluate it have been developed. In particular, the ITU-T adopted in 2001 a technique called Perceptual Evaluation of Speech Quality (PESQ) to automatically measuring speech quality. PESQ is a well-known and widely used procedure, providing in general an accurate evaluation of perceptual quality by comparing the original and received voice sequences. The thesis provides a procedure for estimating PESQ output working only with measures taken on the network state and using some properties of the communication system, without any original signal. The experimental results obtained prove the capability of our approach to give good estimations of the speech quality in a real–time context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nivlet, Philippe. „Prise en compte des incertitudes dans l'interprétation réservoir des données géophysiques : application à la segmentation“. Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL570N.

Der volle Inhalt der Quelle
Annotation:
Pour caractériser l'état physique des réservoirs d'hydrocarbure et suivre leur évolution au cours de la production, il faut pouvoir interpréter en termes qualitatifs (lithofaciès, propriétés réservoirs. . . ) des données de nature et de source très diverses. L'analyse discriminante est une méthode de segmentation qui permet d'atteindre cet objectif. Parallèlement, il est nécessaire d'évaluer l'incertitude attachée à cette interprétation, en caractérisant, puis en propageant les incertitudes sur les données d'entrée. Dans la thèse, les incertitudes étant mal connues, elles sont représentées par des intervalles. La caractérisation de l'amplitude de ces intervalles est traitée de façon spécifique pour chaque application présentée. Le problème de la propagation est résolu par une nouvelle technique reposant sur l'analyse par intervalles. Diverses approches d'analyse discriminante (non paramétrique, quadratique et linéaire) sont étendues pour traiter des données d'entrée sous la forme d'intervalles. Dans un premier temps, un modèle imprécis (en lithofaciès par exemple) est calibré à partir d'un ensemble pré-interprété de données imprécises. La qualité de ce modèle est testée, et, si elle est jugée satisfaisante, le modèle est appliqué à l'ensemble des données disponibles sur le réservoir. L'interprétation résultante est un modèle flou, mais réaliste du réservoir en lithofaciès. La technique développée est validée sur des données synthétiques, ce qui permet de la comparer à des méthodes traditionnelles de propagation d'incertitudes (simulations). Deux applications sur données réelles sont ensuite présentées. La première consiste en l'interprétation en " rock-types " de mesures diagraphiques enregistrées au niveau d'un puits du champ d'Alwyn (Mer du Nord). La seconde concerne une interprétation en faciès sismiques de données de sismique répétée, enregistrées sur le réservoir d'huile lourde d'East-Senlac (Canada) produit par injection de vapeur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Masominia, Amir Hossein. „Neuro-inspired computing with excitable microlasers“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP053.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente des recherches sur des systèmes de calcul alternatifs, en se concentrant spécifiquement sur le calcul analogique et neuromimétique. La quête d'une intelligence artificielle plus générale a mis en évidence les limitations des unités de calcul conventionnelles basées sur les architectures de Von Neumann, en particulier en termes d'efficacité énergétique et de complexité. Les architectures de calcul inspirées du cerveau et les ordinateurs analogiques sont des prétendants de premier plan dans ce domaine. Parmi les différentes possibilités, les systèmes photoniques impulsionnels (spiking) offrent des avantages significatifs en termes de vitesse de traitement, ainsi qu'une efficacité énergétique accrue. Nous proposons une approche novatrice pour les tâches de classification et de reconnaissance d'images en utilisant un laser à micropilier développé en interne fonctionnant comme un neurone artificiel. La non-linéarité du laser excitable, résultant des dynamiques internes, permet de projeter les informations entrantes, injectées optiquement dans le micropilier au travers de son gain, dans des dimensions supérieures. Cela permet de trouver des régions linéairement séparables pour la classification. Le micropilier laser excitable présente toutes les propriétés fondamentales d'un neurone biologique, y compris l'excitabilité, la période réfractaire et l'effet de sommation, avec des échelles caractéristiques de fonctionnement sous la nanoseconde. Cela en fait un candidat de premier choix dans les systèmes impulsionnels où la dynamique de l'impulsion elle-même porte des informations, par opposition aux systèmes qui considèrent uniquement la fréquence moyenne des impulsions. Nous avons conçu et étudié plusieurs systèmes utilisant le micropilier laser, basés sur un calculateur à réservoir à nœud physique unique qui émule un calculateur à plusieurs noeuds et utilisant différents régimes dynamiques du microlaser. Ces systèmes ont atteint des performances de reconnaissance plus élevées par rapport aux systèmes sans le microlaser. De plus, nous introduisons un nouveau modèle inspiré des champs réceptifs dans le cortex visuel, capable de classifier un ensemble de chiffres tout en éliminant le besoin d'un ordinateur conventionnel dans le processus. Ce système a été mis en œuvre expérimentalement avec succès en utilisant une configuration optique combinée en espace libre et fibrée, ouvrant des perspectives intéressantes pour le calcul analogue ultra-rapide sur architecture matérielle
This thesis presents research on alternative computing systems, with a focus on analog and neuromimetic computing. The pursuit of more general artificial intelligence has underscored limitations in conventional computing units based on Von Neumann architectures, particularly regarding energy efficiency and complexity. Brain-inspired computing architectures and analog computers are key contenders in this field. Among the various proposed methods, photonic spiking systems offer significant advantages in processing and communication speeds, as well as potential energy efficiency. We propose a novel approach to classification and image recognition tasks using an in-house developed micropillar laser as the artificial neuron. The nonlinearity of the spiking micropillar laser, resulting from the internal dynamics of the system, allows for mapping incoming information, optically injected to the micropillar through gain, into higher dimensions. This enables finding linearly separable regions for classification. The micropillar laser exhibits all fundamental properties of a biological neuron, including excitability, refractory period, and summation effect, with sub-nanosecond characteristic timescales. This makes it a strong candidate in spiking systems where the dynamics of the spike itself carries information, as opposed to systems that consider spiking rates only. We designed and studied several systems using the micropillar laser, based on a reservoir computer with a single physical node that emulates a reservoir computer with several nodes, using different dynamical regimes of the microlaser. These systems achieved higher performance in prediction accuracy of the classes compared to systems without the micropillar. Additionally, we introduce a novel system inspired by receptive fields in the visual cortex, capable of classifying a digit dataset entirely online, eliminating the need for a conventional computer in the process. This system was successfully implemented experimentally using a combined fiber and free-space optical setup, opening promising prospects for ultra-fast, hardware based feature selection and classification systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Godano, Maxime. „Etude théorique sur le calcul des mécanismes au foyer dans un réservoir et application à la sismicité de la saline de Vauvert (Gard)“. Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00410768.

Der volle Inhalt der Quelle
Annotation:
Nous proposons une méthode d'inversion non linéaire des amplitudes des ondes directes P, SV et SH basée sur l'algorithme du recuit simulé, afin de déterminer à partir d'un nombre limité de stations, le mécanisme au foyer de séismes induits en contexte de réservoir. Cette méthode permet de déterminer aussi bien les paramètres du plan de faille (azimut, pendage et angle de glissement) décrivant une source double-couple, que les six composantes du tenseur des moments décrivant une source plus générale.
L'inversion double-couple et l'inversion du tenseur des moments sont testées sur quatre séismes induits dans le réservoir géothermique de Soultz-sous-Forêts. Les mécanismes obtenus sont en accord avec ceux déterminés par Charléty et al. 2007.
La méthode d'inversion est appliquée à la sismicité de la saline de Vauvert enregistrée par un réseau permanent de deux stations 3-composante. Dans un premier temps, la méthode est testée sur 15 séismes enregistrés durant le déploiement temporaire d'une antenne de quatre capteurs 3-composante. La comparaison entre l'inversion utilisant les deux stations permanentes et l'antenne temporaires et l'inversion utilisant seulement les deux stations permanentes montre des mécanismes au foyer double-couple identiques pour les séismes localisés entre les deux stations permanentes. Dans un deuxième temps, la méthode est appliquée à un essaim de sismicité. Les mécanismes au foyer obtenus pour 532 évènements, indiquent pour la majorité une rupture le long de fractures sub-verticales NE-SW, interprétée comme de probables ruptures sur les plans stratigraphiques des bancs d'insolubles intercalés dans la formation de sel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Derfoul, Ratiba. „Intégration des données de sismique 4D dans les modèles de réservoir : recalage d'images fondé sur l'élasticité non linéraire“. Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00924825.

Der volle Inhalt der Quelle
Annotation:
Dans une première partie, nous proposons une méthodologie innovante pour la comparaison d'images en ingénierie de réservoir. L'objectif est de pouvoir comparer des cubes sismiques obtenus par simulation avec ceux observés sur un champ pétrolier, dans le but de construire un modèle représentatif de la réalité. Nous développons une formulation fondée sur du filtrage, de la classification statistique et de la segmentation d'images. Ses performances sont mises en avant sur des cas réalistes. Dans une seconde partie, nous nous intéressons aux méthodes de recalage d'images utilisées en imagerie médicale pour mettre en correspondance des images. Nous introduisons deux nouveaux modèles de recalage fondés sur l'élasticité non linéaire, où les formes sont appréhendées comme des matériaux de type Saint Venant-Kirchhoff et Ciarlet-Geymonat. Nous justifions théoriquement l'existence de solutions ainsi que la résolution numérique. Le potentiel de ces méthodes est illustré sur des images médicales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Benoist, Tristan. „Open quantum systems and quantum stochastic processes“. Thesis, Paris, Ecole normale supérieure, 2014. http://www.theses.fr/2014ENSU0006/document.

Der volle Inhalt der Quelle
Annotation:
De nombreux phénomènes de physique quantique ne peuvent être compris que par l'analyse des systèmes ouverts. Un appareil de mesure, par exemple, est un système macroscopique en contact avec un système quantique. Ainsi, tout modèle d'expérience doit prendre en compte les dynamiques propres aux systèmes ouverts. Ces dynamiques peuvent être complexes : l'interaction du système avec son environnement peut modifier ses propriétés, l'interaction peu créer des effets de mémoire dans l'évolution du système, . . . Ces dynamiques sont particulièrement importantes dans l'étude des expériences d'optique quantique. Nous sommes aujourd'hui capables de manipuler individuellement des particules. Pour cela la compréhension et le contrôle de l'influence de l'environnement est crucial. Dans cette thèse nous étudions d'un point de vue théorique quelques procédures communément utilisées en optique quantique. Avant la présentation de nos résultats, nous introduisons et motivons l'utilisation de la description markovienne des systèmes quantiques ouverts. Nous présentons a la fois les équations maîtresses et le calcul stochastique quantique. Nous introduisons ensuite la notion de trajectoire quantique pour la description des mesures indirectes continues. C'est dans ce contexte que l'on présente les résultats obtenus au cours de cette thèse. Dans un premier temps, nous étudions la convergence des mesures non destructives. Nous montrons qu'elles reproduisent la réduction du paquet d'onde du système mesuré. Nous montrons que cette convergence est exponentielle avec un taux fixe. Nous bornons le temps moyen de convergence. Dans ce cadre, en utilisant les techniques de changement de mesure par martingale, nous obtenons la limite continue des trajectoires quantiques discrètes. Dans un second temps, nous étudions l'influence de l'enregistrement des résultats de mesure sur la préparation d'état par ingénierie de réservoir. Nous montrons que l'enregistrement des résultats de mesure n'a pas d'influence sur la convergence proprement dite. Cependant, nous trouvons que l'enregistrement des résultats de mesure modifie le comportement du système avant la convergence. Nous retrouvons une convergence exponentielle avec un taux équivalent au taux sans enregistrement. Mais nous trouvons aussi un nouveau taux de convergence correspondant a une stabilité asymptotique. Ce dernier taux est interprété comme une mesure non destructive ajoutée. Ainsi l'état du système ne converge qu'après un temps aléatoire. A partir de ce temps la convergence peut être bien plus rapide. Nous obtenons aussi une borne sur le temps moyen de convergence
Many quantum physics phenomena can only be understood in the context of open system analysis. For example a measurement apparatus is a macroscopic system in contact with a quantum system. Therefore any experiment model needs to take into account open system behaviors. These behaviors can be complex: the interaction of the system with its environment might modify its properties, the interaction may induce memory effects in the system evolution, ... These dynamics are particularly important when studying quantum optic experiments. We are now able to manipulate individual particles. Understanding and controlling the environment influence is therefore crucial. In this thesis we investigate at a theoretical level some commonly used quantum optic procedures. Before the presentation of our results, we introduce and motivate the Markovian approach to open quantum systems. We present both the usual master equation and quantum stochastic calculus. We then introduce the notion of quantum trajectory for the description of continuous indirect measurements. It is in this context that we present the results obtained during this thesis. First, we study the convergence of non demolition measurements. We show that they reproduce the system wave function collapse. We show that this convergence is exponential with a fixed rate. We bound the mean convergence time. In this context, we obtain the continuous time limit of discrete quantum trajectories using martingale change of measure techniques. Second, we investigate the influence of measurement outcome recording on state preparation using reservoir engineering techniques. We show that measurement outcome recording does not influence the convergence itself. Nevertheless, we find that measurement outcome recording modifies the system behavior before the convergence. We recover an exponential convergence with a rate equivalent to the rate without measurement outcome recording. But we also find a new convergence rate corresponding to an asymptotic stability. This last rate is interpreted as an added non demolition measurement. Hence, the system state converges only after a random time. At this time the convergence can be much faster. We also find a bound on the mean convergence time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Langouët, Hoël. „Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs“. Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00671987.

Der volle Inhalt der Quelle
Annotation:
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Parent, Eric. „Élaboration des consignes de gestion des barrages - réservoirs“. Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://pastel.archives-ouvertes.fr/pastel-00569481.

Der volle Inhalt der Quelle
Annotation:
L'objet de ce mémoire de recherche est de proposer un modèle théorique permettant de modéliser le fonctionnement d'un système de gestion des ressources en eau, d'étudier les méthodes de calcul que l'on peut utiliser pour l'élaboration rationnelle des consignes de gestion des barrages-réservoirs. L'application opérationnelle a été réalisée pour deux situations particulières très différentes. Sur le cas du système Neste, l'étude proposée s'inscrit dans le cadre des problèmes d'optimisation hebdomadaire bidimensionnelle (irrigation et salubrité) des ressources en eau durant la période d'étiage. La résolution est effectuée selon deux approches : -un modèle de programmation dynamique avec état de dimension deux (niveau des réserves, niveau dans la rivière) où dans la solution numérique les variables sont discrétisées ; -un modèle "synthétique" où l'on calcule une probabilité de non dépassement caractérisant l'état hydrique des ressources du système. Une règle empirique permet d'associer à cette grandeur une décision de consigne à effectuer. L'étude de la gestion journalière du barrage Seine quant à elle, combine divers modèles de prévision des apports et d'optimisation des consignes. Elle permet de mettre en évidence que la performance globale de la gestion dépend fortement du couplage entre la réponse du système dynamique et le processus décisionnel. Nous développons là aussi deux techniques. La première est une extension au cas stochastique de la technique du fil tendu au moyen de simulations des apports à venir. Cette méthode très simple mais qui s'appuie sur un modèle conceptuel pluies-débit est comparée à une programmation dynamique stochastique associée à un modèle hydrologique de type "boîte noire". La comparaison porte sur la réduction de variabilité interannuelle des débits de la rivière à l'aval du réservoir. Le calcul numérique sur ordinateur est facilité par une approche de la programmation dynamique fondée sur le contrôle stochastique d'un processus de diffusion. Sur ce cas aussi, les résultats numériques sont comparés sur une série de chroniques historiques. A partir de ces deux exemples, nos conclusions portent sur les limites et les avantages des outils de modélisation et d'aide à la décision pour une meilleure gestion des systèmes de ressources en eau.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Balaven-Clermidy, Sophie. „Génération de maillages hybrides pour la simulation de réservoirs pétroliers“. Paris, ENMP, 2001. http://www.theses.fr/2001ENMP1027.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie