Academic literature on the topic 'Algorithme de restitution'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Algorithme de restitution.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Algorithme de restitution":

1

Keldermann, R. H., K. H. W. J. ten Tusscher, M. P. Nash, R. Hren, P. Taggart, and A. V. Panfilov. "Effect of heterogeneous APD restitution on VF organization in a model of the human ventricles." American Journal of Physiology-Heart and Circulatory Physiology 294, no. 2 (February 2008): H764—H774. http://dx.doi.org/10.1152/ajpheart.00906.2007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The onset of ventricular fibrillation (VF) has been associated with steep action potential duration restitution in both clinical and computational studies. Recently, detailed clinical restitution properties in cardiac patients were reported showing a substantial degree of heterogeneity in restitution slopes at the epicardium of the ventricles. The aim of the present study was to investigate the effect of heterogeneous restitution properties in a three-dimensional model of the ventricles using these clinically measured restitution data. We used a realistic model of the human ventricles, including detailed descriptions of cell electrophysiology, ventricular anatomy, and fiber direction anisotropy. We extended this model by mapping the clinically observed epicardial restitution data to our anatomic representation using a diffusion-based algorithm. Restitution properties were then fitted by regionally varying parameters of the electrophysiological model. We studied the effects of restitution heterogeneity on the organization of VF by analyzing filaments and the distributions of excitation periods. We found that the number of filaments and the excitation periods were both dependent on the extent of heterogeneity. An increased level of heterogeneity leads to a greater number of filaments and a broader distribution of excitation periods, thereby increasing the complexity and dynamics of VF. Restitution heterogeneity may play an important role in providing a substrate for cardiac arrhythmias.
2

Shih, Chihhsiong. "Analyzing and Comparing Shot Planning Strategies and Their Effects on the Performance of an Augment Reality Based Billiard Training System." International Journal of Information Technology & Decision Making 13, no. 03 (May 2014): 521–65. http://dx.doi.org/10.1142/s0219622014500278.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The shot planning of a cue after it collides with an object ball determines a player's success in a billiard game. This paper proposes three novel gaming strategies to investigate the effect of cue shots planning on gaming performance. The first algorithm considers the nearest pocket for every selected target object ball, seeking optimal post collision positions. The second algorithm considers all pocket and target object ball combinations during both the pre- and post-collision optimal shot selection processes. The third algorithm considers a multi-objective optimization process for optimal shot planning control. The simulations are conducted based on a collision model considering the restitution effects. An augmented reality training facility is devised to guide users in both aiming and cue repositioning control in a real-world billiard game. Experimental results not only prove the reliability of our training device in selecting a proper shot sequence using the all-pocket optimal shot planning algorithm, but it also proves the consistency with the restitution theory.
3

Alaci, Stelian, Constantin Filote, Florina-Carmen Ciornei, Oana Vasilica Grosu, and Maria Simona Raboaca. "An Analytical Solution for Non-Linear Viscoelastic Impact." Mathematics 9, no. 16 (August 5, 2021): 1849. http://dx.doi.org/10.3390/math9161849.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The paper presents an analytical solution for the centric viscoelastic impact of two smooth balls. The contact period has two phases, compression and restitution, delimited by the moment corresponding to maximum deformation. The motion of the system is described by a nonlinear Hunt–Crossley equation that, when compared to the linear model, presents the advantage of a hysteresis loop closing in origin. There is only a single available equation obtained from the theorem of momentum. In order to solve the problem, in the literature, there are accepted different supplementary hypotheses based on energy considerations. In the present paper, the differential equation is written under a convenient form; it is shown that it can be integrated and a first integral is found—this being the main asset of the work. Then, all impact parameters can be calculated. The effect of coefficient of restitution upon all collision characteristics is emphasized, presenting importance for the compliant materials, in the domain of small coefficients of restitution. The results (variations of approach, velocity, force vs. time and hysteresis loop) are compared to two models due to Lankarani and Flores. For quasi-elastic collisions, the results are practically the same for the three models. For smaller values of the coefficient of restitution, the results of the present paper are in good agreement only to the Flores model. The simplified algorithm for the calculus of viscoelastic impact parameters is also presented. This algorithm avoids the large calculus volume required by solving the transcendental equations and definite integrals present in the mathematical model. The method proposed, based on the viscoelastic model given by Hunt and Crossley, can be extended to the elasto–visco–plastic nonlinear impact model.
4

Matthews, Gareth D. K., Laila Guzadhur, Andrew Grace, and Christopher L.-H. Huang. "Nonlinearity between action potential alternans and restitution, which both predict ventricular arrhythmic properties in Scn5a+/− and wild-type murine hearts." Journal of Applied Physiology 112, no. 11 (June 1, 2012): 1847–63. http://dx.doi.org/10.1152/japplphysiol.00039.2012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Electrocardiographic QT- and T-wave alternans, presaging ventricular arrhythmia, reflects compromised adaptation of action potential (AP) duration (APD) to altered heart rate, classically attributed to incomplete Nav1.5 channel recovery prior to subsequent stimulation. The restitution hypothesis suggests a function whose slope directly relates to APD alternans magnitude, predicting a critical instability condition, potentially generating arrhythmia. The present experiments directly test for such correlations among arrhythmia, APD alternans and restitution. Mice haploinsufficient in the Scn5a, cardiac Na+ channel gene ( Scn5a+/−), previously used to replicate Brugada syndrome, were used, owing to their established arrhythmic properties increased by flecainide and decreased by quinidine, particularly in right ventricular (RV) epicardium. Monophasic APs, obtained during pacing with progressively decrementing cycle lengths, were systematically compared at RV and left ventricular epicardial and endocardial recording sites in Langendorff-perfused Scn5a+/− and wild-type hearts before and following flecainide (10 μM) or quinidine (5 μM) application. The extent of alternans was assessed using a novel algorithm. Scn5a+/− hearts showed greater frequencies of arrhythmic endpoints with increased incidences of ventricular tachycardia, diminished by quinidine, and earlier onsets of ventricular fibrillation, particularly following flecainide challenge. These features correlated directly with increased refractory periods, specifically in the RV, and abnormal restitution and alternans properties in the RV epicardium. The latter variables were related by a unique, continuous higher-order function, rather than a linear relationship with an unstable threshold. These findings demonstrate a specific relationship between alternans and restitution, as well as confirming their capacity to predict arrhythmia, but implicate mechanisms additional to the voltage feedback suggested in the restitution hypothesis.
5

Dragna, Ionuț-Bogdan, Nicolae Pandrea, and Nicolae-Doru Stănescu. "Simultaneous Collision of the Rigid Body at Two Points." Symmetry 13, no. 10 (October 13, 2021): 1924. http://dx.doi.org/10.3390/sym13101924.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
We present a new approach based on the notion of inertance for the simultaneous collisions without friction of a rigid solid. The calculations are performed using the screw (plückerian) coordinates, while the results are obtained in matrix form, and they may be easily implemented for different practical situations. One calculates the velocities after collision, the energy of lost velocities, and the loss of the kinetic energy. The general algorithm of calculation is described in the paper. The main assumption is that the normal velocities at the contact points vanish simultaneously. The coefficients of restitution at the contact points may be equal or not. Some completely solved applications are also presented, and the numerical results are discussed. The numerical values depend on which coefficient of restitution is used.
6

Yigit, A. S., A. G. Ulsoy, and R. A. Scott. "Dynamics of a Radially Rotating Beam With Impact, Part 1: Theoretical and Computational Model." Journal of Vibration and Acoustics 112, no. 1 (January 1, 1990): 65–70. http://dx.doi.org/10.1115/1.2930100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A model is presented for the dynamics of a radially rotating beam with impact. The model uses a momentum balance method and a coefficient of restitution, and enables one to predict the rigid body motion as well as the elastic motion before and after impact. A computational algorithm is also developed to implement the model. In Part 2 simulation results will be compared with experimental results to investigate the validity of the model.
7

CLÉMENT, E., S. LUDING, A. BLUMEN, J. RAJCHENBACH, and J. DURAN. "FLUIDIZATION, CONDENSATION AND CLUSTERIZATION OF A VIBRATING COLUMN OF BEADS." International Journal of Modern Physics B 07, no. 09n10 (April 20, 1993): 1807–27. http://dx.doi.org/10.1142/s0217979293002602.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
We present numerical and experimental results for the response under external vibration of one-dimensional columns of beads. Such systems are toy-models for dissipative granular materials. We show that a simple algorithm is able to reproduce the basic experimental features. Our main result is that an increase in acceleration leads to a transition from a condensed to a fluidized state of the columns. We discuss this cross-over acceleration as a function of the number of beads and of the restitution coefficient (dissipation) per collision. Also, we show that at high dissipation level clustered states (where all the beads are in contact) exist. The algorithm used by us reproduces well this cluster dynamics.
8

Kini, Ananth, Thomas L. Vincent, and Brad Paden. "The Bouncing Ball Apparatus as an Experimental Tool." Journal of Dynamic Systems, Measurement, and Control 128, no. 2 (June 1, 2005): 330–40. http://dx.doi.org/10.1115/1.2194069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The bouncing ball on a sinusoidally vibrating plate exhibits a rich variety of nonlinear dynamical behavior and is one of the simplest mechanical systems to produce chaotic behavior. A computer control system is designed for output calibration, state determination, system identification, and control of a new bouncing ball apparatus designed in collaboration with Magnetic Moments. The experiments described here constitute the first research performed with the apparatus. Experimental methods are used to determine the coefficient of restitution of the ball, an extremely sensitive parameter needed for modeling and control. The coefficient of restitution is estimated using data from a stable one-cycle orbit both with and without using corresponding data from a ball map. For control purposes, two methods are used to construct linear maps. The first map is determined by collecting data directly from the apparatus. The second map is derived analytically using a high bounce approximation. The maps are used to estimate the domains of attraction to a stable one-cycle orbit. These domains of attraction are used to construct a chaotic control algorithm for driving the ball to a stable one-cycle from any initial state. Experimental results based on the chaotic control algorithm are compared and it is found that the linear map obtained directly from the data not only gives a more accurate representation of the domain of attraction, but also results in more robust control of the ball to the stable one-cycle.
9

Warzecha, Mariusz, and Rafał Grzejda. "AN IMPROVED APPROACH IN THE APPLICATIONOF AN ELASTIC-PLASTIC CONTACT FORCE MODELIN THE MODELLING OF MULTIPLE IMPACTS." Tribologia 303, no. 1 (March 31, 2023): 83–95. http://dx.doi.org/10.5604/01.3001.0016.2936.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This paper presents the modelling of a simultaneous multiple collision occurring between several bodies ofa kinematic chain. An algorithm is proposed that when used with an elastoplastic contact model, allows thephenomena that can occur during a multiple-body collision to be taken into account. These phenomena includethe transition of the collision state from the restitution phase directly to the compression phase or successivecollisions occurring along the same normal. The proposed algorithm can be used with any elastoplastic contactmodel. This paper presents its use with a selected model in a three-body system. Numerical calculations basedon the model have been verified using the Finite Element Method (FEM). The use of the proposed improvedapproach reduces the post-collision velocity prediction error by 2.34% compared to the baseline descriptionof collisions known from the literature.
10

Muslim, Hafizh Adam. "NAIVE BAYES ALGORITHM IN HS CODE CLASSIFICATION FOR OPTIMIZING CUSTOMS REVENUE AND MITIGATION OF POTENTIAL RESTITUTION." Journal of Information Technology and Its Utilization 5, no. 1 (June 30, 2022): 1–9. http://dx.doi.org/10.56873/jitu.5.1.4740.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The Directorate General of Customs and Excise, as a government revenue collector, must maximise import duty receipts each year. One common issue is the return of unpaid import duty and/or administrative punishments in the form of fines based on the objection judgement document. The Tax Court could help you minimise your gross receipts at the Customs Office. Data mining techniques are intended to provide valuable information regarding the HS Code classification technique, which can assist customs agents in determining duties and/or customs values. This study makes use of data from the Notification of Import of Goods at Customs Regional Office XYZ from 2018 to 2020. The Cross-industry Standard Process for Data Mining (CRISP-DM) model is used in this study, and the Naive Bayes Algorithm in Rapidminer 9.10 is used for data classification. According to the model, the calculation accuracy is 99.97 percent, the classification error value is 0.03 percent, and the Kappa coefficient is 0.999..

Dissertations / Theses on the topic "Algorithme de restitution":

1

Megharbi, Djamel. "Restitution de paramètres thermodynamiques par reconnaissance d'environnements dans les graphes de composés." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL091N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le présent travail, nous nous proposons de concevoir un système de restitution de paramètres thermodynamiques relatifs à des mélanges binaires de composés organiques. La prévision des fonctions thermodynamiques des mélanges liquides binaires utilise des modèles théoriques de solutions, fondés sur la thermodynamique statistique. Nous avons utilisé le modèle du réseau rigide en version surfaces de contacts et dans l'approximation quasi chimique (DISQUAC). Étant donné que les paramètres thermodynamiques dépendent de la structure du composé et de l'agencement de certains environnements internes à ce dernier, l'objectif de notre travail a été de préconiser une approche qui prend en compte cette constatation. Nous présentons l'état de l'art des algorithmes existants de recherches de sous structures. Différentes approches, classiques et récentes sont proposées et commentées. Un logiciel de restitution de paramètres thermodynamiques par reconnaissance d'environnements dans les graphes de composés et ses guides d'utilisation sont associés à ce travail
2

Deprez, Romain. "Optimisation perceptive de la restitution sonore multicanale par une analyse spatio-temporelle des premières réflexions." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4746/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est l'optimisation de la qualité perçue de la reproduction sonore par un système audio multicanal, dans un contexte de salle d'écoute domestique. Les travaux de recherche présentés s'articulent selon deux axes. Le premier concerne l'effet de salle, et plus particulièrement les aspects physiques et perceptifs liés aux premières réflexions d'une salle. Ces éléments sont décrits spécifiquement, et une expérience psychoacoustique a été menée afin d'étendre les données disponibles quant à leur perceptibilité, c'est à dire leur capacité à modifier la perception du son direct, que ce soit en termes de timbre ou de localisation. Les résultats mettent en évidence la dépendance du seuil en fonction du type de stimulus, ainsi que son évolution en fonction de la configuration spatiale de l'onde directe et de la réflexion. Pour une condition donnée, le seuil de perceptibilité est décrit comme une fonction de directivité dépendant de l'incidence de la réflexion.Le deuxième axe de travail concerne les méthodes de correction de l'effet de la salle de reproduction. Les méthodes numériques classiques sont d'abord étudiées. Leur principale lacune réside dans l'absence de prise en compte du rôle spécifique des propriétés temporelles et spatiales des première réflexions. Le travail de thèse se termine par la proposition d'une nouvelle méthode de correction utilisant un algorithme itératif de type FISTA modifié afin de prendre en compte la perceptibilité des réflexions. Le traitement est implémenté dans une représentation où l'information spatiale est analysée sur la base des harmoniques sphériques
The goal of this Ph. D. thesis is to optimize the perceived quality of multichannel sound reproduction systems, in the context of a domestic listening room. The presented research work have been pursued in two different directions.The first deals with room effet, and more particularly with physical and perceptual aspects of first reflections within a room. These reflections are specifically described, and a psychoacoustical experiment have been carried out in order to extend the available data on their perceptibility, i.e. their potency in altering the perception of the direct sound, whether in its timbral or spatial features. Results exhibit the variation of the threshold depending on the type of stimulus, as well as on the spatial configuration of the direct sound and the reflection. For a given condition, the perceptibility threshold is given as a directivity function depending on the direction of incidence of the reflection.The second topic deals with room correction methods. Firstly, state-of-the art digital methods are investigated. Their main drawback is that they don't consider the specific impact of the temporal and spatial attributes of first reflections. A new correction method is therefore proposed. It uses an iterative algorithm, derivated from the FISTA method, in order to take into account the perceptibility of the reflections. All the processing is carried out in a spatial sound representation, where the spatial properties of the sound are analysed thanks to spherical harmonics
3

Herreras, Giralda Marcos. "Développement d’un algorithme de restitution des propriétés des aérosols atmosphériques en utilisant la synergie du spectre solaire et infrarouge thermique." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILR013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance et le suivi de la composition chimique des aérosols atmosphériques sont très importants pour la compréhension et l'évaluation du climat, des processus environnementaux et de la qualité de l'air. La composition des aérosols détermine l'efficacité des interactions avec les nuages, l'interaction directe avec le rayonnement, l'évaluation de « Particulate Matter » (PM) et l'impact sur l'écosystème marin après le dépôt des aérosols. Les poussières minérales représentent la deuxième, après les aérosols marins, plus grande fraction des émissions des aérosols. L'effet radiatif net de la poussière atmosphérique dépend de sa composition minéralogique. La grande variété de la minéralogie du sol détermine la variabilité de la composition des poussières atmosphériques, mais un lien direct entre les deux n'est pas évident. L'objectif de cette thèse est d'établir un cadre pour la restitution cohérente des propriétés optiques des aérosols atmosphériques et des composants des aérosols en utilisant la synergie des mesures solaires et infrarouges thermiques (TIR). L'implémentation de ce développement est faite dans le cadre de l'algorithme GRASP (Dubovik et al., 2021). La synergie entre les deux parties des spectres vise à améliorer la sensibilité aux propriétés microphysiques des aérosols et de caractériser plus finement les composants minéralogiques de la poussière, par exemple en séparant les fractions de quartz et d'argile. Le développement présenté est une extension de l'approche GRASP/Component développée précédemment (Li et al., 2019). Une nouveauté importante est l'intégration de l'émission Planck dans le schéma de transfert radiatif de Ordres Successifs de Diffusion qui est employé par l'algorithme GRASP. En outre, des méthodologies line-by-line et K-Distribution pour intégrer les lignes d'absorption des gaz et une méthodologie pour traiter l'indice de réfraction très variable des aérosols minéraux dans le TIR ont été implémentées afin de remplir les objectifs. Des tests synthétiques ont été réalisés pour évaluer la précision i) de la méthodologie conçue pour les simulations de mesures d'un radiomètre infrarouge thermique et ii) de la paramétrisation réactualisée des composants de l'aérosol. En outre, une étude a été menée sur l'influence des informations supposées a priori. Une amélioration de la sensibilité aux grosses particules, une caractérisation plus fine des composants de la poussière, la restitution de la hauteur moyenne de couche des aérosols à partir de mesures passives et enfin la restitution de la concentration totale dans la colonne atmosphérique de vapeur d'eau ont été illustrées comme faisables en s'appuyant sur la synergie des mesures Solaire-TIR. Ainsi, le nouvel algorithme de restitution GRASP/Component combinant le spectre solaire-TIR a été appliqué aux mesures combinées du photomètre solaire AERONET (Holben et al., 1998) et du radiomètre infrarouge thermique CLIMAT (Legrand et al., 1999; Brogniez et al., 2003) au Sénégal. Les observations réelles, obtenues entre novembre 2020 et avril 2021 sur le site de Dakar Belair, ont été sélectionnées pour l'application de l’algorithme. Un accord important a été trouvé entre les valeurs restituées et les résultats correspondants du produit standard d'AERONET. Il a été constaté que la vapeur d'eau totale dans la colonne atmosphérique et la hauteur moyenne de couche des aérosols peuvent être restituées simultanément avec les caractéristiques des aérosols. Les restitutions ont montré une bonne corrélation avec la vapeur d'eau dérivée indépendamment par l’algorithme AERONET et un accord qualitatif a été observé avec les mesures de profils d'aérosols par un système lidar. Les étapes suivantes du travail incluent une validation plus poussée des composants d'aérosol restitués. La perspective réside dans l'application de l'algorithme à une combinaison des capteurs 3MI et IASI qui seront lancé à bord de la mission spatiale MetOp-SG A ou des missions similaires
Knowledge and monitoring of atmospheric aerosol chemical composition is highly important for the understanding and evaluation of Earth's climate, environmental processes and air quality. The aerosol composition drives the efficiency of interactions with clouds, direct interaction of radiation with the Particulate Matter, impact on marine ecosystem after the aerosol deposition, etc.. Mineral dust represents the second, after the marine aerosol, largest fraction of the global atmospheric aerosol emissions. The net radiative effect of the atmospheric dust depends on its mineralogical composition. The vast variety of soil mineralogy determines the variability of airborne dust composition, but direct link between them is not evident. Mineralogical composition of volcanic ash is even less predictable, while has an importance for aviation safety. Finally, the fraction of aerosol hygroscopic species is determinant for aerosol cloud interactions. The objective of this thesis is to establish a framework for the combined and consistent retrieval of atmospheric aerosol optical properties and aerosol components using synergy of solar and Thermal Infrared (TIR) measurements. The implementation is done as part of the GRASP algorithm (Dubovik et al., 2021). Synergy between both parts of the spectra is expected to provide an enhanced sensitivity to aerosol microphysical properties as well as a finer characterization of the mineral dust components, e.g. Quartz and clays fractions separation. The presented development is an extension the of previously developed GRASP/Components approach (Li et al., 2019). An important update has been done on the incorporation of Planck emission into the Successive Orders of Scattering radiative transfer scheme that is employed in the GRASP algorithm. In addition, line-by-line and K-Distribution methodologies to integrate gas absorption lines and a methodology to deal with the highly varying aerosol refractive index in TIR was implemented in order to fulfill the objectives. Synthetic tests were performed to evaluate the accuracy of (i) the designed methodology for the measurements simulation of a thermal infrared radiometer and (ii) the updated aerosol components parameterization. Furthermore, a synthetic study was conducted to evaluate the influence of a priori assumed information. An enhancement of the sensitivity to the coarse mode particles, a finer characterization of the dust components, the retrieval of the Aerosol Mean Height (AMH) from passive measurements and finally the retrieval of total column water vapor concentration was illustrated as possible based on the Solar-TIR measurements synergy. Namely, the new combined solar-TIR GRASP/Components retrieval algorithm was applied to the AERONET (AErosol RObotic Network) (Holben et al., 1998) sun photometer and the CLIMAT Thermal Infrared radiometer (Legrand et al., 1999; Brogniez et al., 2003) combined measurements conducted by LOA in Senegal. The observations conducted between November 2020 to April 2021 at the Dakar Belair site were selected for the application of the Solar-TIR GRASP/Components retrieval. A high degree of agreement was found between the derived values and the corresponding standard AERONET retrievals. Moreover, it was found that the total column water vapor and AMH can be retrieved simultaneously with the aerosol characteristics. The retrievals showed good correlation with the independently derived AERONET precipitable water and a qualitative agreement with lidar aerosol profiles observations. The future steps of this work include a further validation of the retrieved aerosol components. The perspective is in the algorithm application to combined 3MI and IASI-NG sensors that will fly onboard of MetOp-SG A space mission or similar
4

Ferré, Marcel. "Developpement de methodes numeriques et experimentales pour la restitution des profils de temperature dans les verres par teledetection infrarouge." Poitiers, 1988. http://www.theses.fr/1988POIT2289.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les profils de temperature sont etablis dans un verre semi-transparent par teledetection et inversion des donnees d'emission du rayonnement thermique spectral infra-rouge. Deux procedes mathematiques ont ete utilises: la methode non lineaire de chabine et la methode lineaire de regularisation de tikhonov. L'identification du profil de temperature dans un verre flotte et dans l'anhydride borique a ete realise par sondage a distance a partir d'un niveau de temperature de l'ordre de 1000 k
5

Sivira, Ramses. "Exploitation des mesures "vapeur d'eau" du satellite Megha-Tropiques pour l'élaboration d'un algorithme de restitution de profils associés aux fonctions de densité de probabilité de l'erreur conditionnelle." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-01025685.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La place de la vapeur d'eau est centrale dans le système climatique : à l'échelle globale, elle participe à la redistribution de l'excédent d'énergie des régions tropicales vers les régions polaires via les grandes cellules de circulation, à méso-échelle elle participe au développement (maturation, dissipation) des systèmes nuageux, précipitants ou non, et à plus petite échelle, ce sont les lois de la thermodynamique humide qui régissent la microphysique de ces nuages. Finalement c'est le plus abondant des gaz à effet de serre qui est au centre d'une boucle de rétroaction fortement positive. La mission satellite Megha-Tropiques a été conçue pour améliorer la documentation du cycle de l'eau et de l'énergie des régions tropicales, via notamment trois instruments : deux radiomètres microondes MADRAS (un imageur) et SAPHIR (un sondeur) respectivement dédiés à l'observation des précipitations (liquides et glacées) et de l'humidité relative atmosphérique, et un radiomètre multi-spectral ScaRaB pour la mesure des flux radiatifs au sommet de l'atmosphère dans le bilan de l'eau et l'énergie de l'atmosphère tropicale et décrire l'évolution de ces systèmes. Les caractéristiques des instruments embarqués permettraient une résolution étendue autours de la raie à 183 GHz du spectre microonde, qui permet de sonder le contenu en vapeur d'eau même en présence des nuages convectifs. Afin de construire une base d'apprentissage où les valeurs d'entrée et sortie soient parfaitement colocalisées et qui, en même temps, soit représentative du problème à modéliser, une large base de radiosondages obtenus par ciel claire et couvrant la bande tropicale (±30° en latitude) sur la période 1990-2008 a été exploitée en parallèle à un modèle de transfert radiatif pour l'obtention des températures de brillance simulées des deux radiomètres. Nous avons mis au point une méthodologie qui nous a permis de développer un algorithme de restitution des profils de vapeur d'eau à partir des observations SAPHIR et MADRAS, et surtout de quantifier l'incertitude conditionnelle d'estimation. L'approche s'est orientée vers l'exploitation des méthodes purement statistiques de restitution des profils afin d'extraire le maximum d'information issues des observations, sans utiliser d'information complémentaire sur la structure thermodynamique de l'atmosphère ou des profils a priori, pour se concentrer sur les diverses restrictions du problème inverse. Trois modèles statistiques ont été optimisés sur ces données d'apprentissage pour l'estimation des profils sur 7 couches de la troposphère, un réseaux de neurones (modèle perceptron multicouches), le modèle additif généralisé et le modèle de machines à vecteur de support (Least Square-Support Vector Machines), et deux hypothèses de modélisation de la fonction de distribution de la probabilité (pdf) de l'erreur conditionnelle sur chacune des couches ont été testées, l'hypothèse Gaussienne (HG) et le mélange de deux distributions Gaussiennes (M2G). L'effort porté sur l'optimisation des modèles statistiques a permis de démontrer que les comportements des trois modèles d'estimation sont semblables, ce qui nous permet de dire que la restitution est indépendante de l'approche utilisée et qu'elle est directement reliée aux contraintes physiques du problème posé. Ainsi, le maximum de précision pour la restitution des profils verticaux d'humidité relative est obtenu aux couches situées dans la moyenne troposphère (biais maximum de 2,2% et coefficient de corrélation minimum de 0,87 pour l'erreur d'estimation) tandis que la précision se dégrade aux extrêmes de la troposphère (à la surface et proche de la tropopause, avec toutefois un biais maximale de 6,92% associé à une forte dispersion pour un coefficient de corrélation maximum de 0,58 pour l'erreur d'estimation), ce qui est expliqué par le contenu en information des mesures simulées utilisées. A partir de la densité de probabilité de l'erreur, connaissant les températures de brillance observées, des intervalles de confiance conditionnels de l'humidité de chacune de couches de l'atmosphère ont été estimés. Les algorithmes d'inversion développés ont été appliqués sur des données réelles issues de la campagne "vapeur d'eau" de validation Megha-Tropiques de l'été 2012 à Ouagadougou qui a permis d'obtenir des mesures par radiosondages coïncidentes avec les passages du satellite. Après prise en compte de l'angle de visée, des incertitudes liées à l'étalonnage de SAPHIR et des erreurs associées à la mesure in situ, l'exploitation de ces données a révélé un comportement semblable aux données de l'apprentissage, avec une bonne performance (biais de 4,55% et coefficient de corrélation de 0,874 sur l'erreur d'estimation) en moyenne troposphère et une dégradation aux extrêmes de la colonne atmosphérique (biais de -4,81% et coefficient de corrélation de 0,419). L'application systématique sur l'ensemble des mesures réalisées par SAPHIR permettra donc mener des études de la variabilité de la vapeur d'eau tropicale en tenant compte des intervalles de confiance associés à la restitution.
6

Sivira, Figueroa Ramsès Gregorio. "Exploitation des mesures "vapeur d'eau" du satellite Megha-Tropiques pour l'élaboration d'un algorithme de restitution de profils associés aux fonctions de densité de probabilité de l'erreur conditionnelle." Paris 6, 2013. http://www.theses.fr/2013PA066723.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons mis au point une méthodologie qui nous a permis de développer un algorithme purement statistique de restitution des profils de vapeur d'eau à partir des observations fournies par les instruments SAPHIR et MADRAS du satellite Megha-Tropiques, et aussi de quantifier l'incertitude conditionnelle d'estimation. Trois modèles ont été optimisés pour l'estimation des profils sur 7 couches de la troposphère et de la fonction de distribution de la probabilité (pdf) de l'erreur conditionnelle sur chacune des couches. L'effort porté sur l'optimisation des modèles statistiques a permis de démontrer que la précision de la restitution est indépendante de l'approche et qu'elle est directement reliée aux contraintes physiques du problème posé. Ainsi, le maximum de précision est obtenu aux couches situées dans la moyenne troposphère (biais maximum de 2,2%) tandis que la précision se dégrade aux extrêmes de la troposphère, ce qui est expliqué par le contenu en information des deux instruments. A partir de la densité de probabilité de l'erreur conditionnelle, des intervalles de confiance conditionnels de l'humidité ont été estimés. On observe sur les données synthétiques que l'hypothèse Gaussienne est plus performante. Cette méthode a été appliquée sur des données réelles et l'exploitation des ces données a révélé un comportement semblable aux données de l'apprentissage, avec une bonne performance (biais de -5,77% et coefficient de corrélation de 0,86) en moyenne troposphère et une dégradation aux extrêmes de la colonne atmosphérique
We designed a methodology that allows us to develop a purely statistic water vapor profile restitution algorithm from Megha-Tropiques SAPHIR and MADRAS instruments with synthetic observations, and specially to quantify the restitution of conditional uncertainties. Three statistical models were optimized using this learning database to estimate seven layers tropospheric water vapor profiles and their conditional error probability density function (pdf). The optimized models lead us to conclude a model-independency restitution accuracy and this accuracy is directly related to physical constraints. Also, maximal precision was achieved in mid-tropospheric layers (maximal bias: 2. 2% and maximal correlation coefficient: 0. 87) while extreme layers show degraded precision values (at surface and the top of the troposphere, maximal bias: 6. 92 associated to a fort dispersion with correlation coefficient: 0. 58), this behavior could be explained by instrumental information lack. From conditional error probability functions, knowing observed brightness temperatures, humidity confidence intervals were estimated by each layer. The two hypotheses were tested and we obtained better results from the Gaussian Hypothesis. This methodology was tested using real data and results are consistent with the learning database with better accuracy (bias: -5. 77%) at mid-tropospheric layers, degrading it to extreme layers
7

Nehaoua, Lamri. "Conception et réalisation d’une plateforme mécatronique dédiée à la simulation de conduite des véhicules deux-roues motorisés." Thesis, Evry-Val d'Essonne, 2008. http://www.theses.fr/2008EVRY0045/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de thèse concerne la réalisation et la caractérisation d’un simulateur dynamique de véhicule deux-roues. La thèse est organisée en plusieurs parties essentielles. D’abord, une étude bibliographique est menée pour cerner la problématique de la simulation de conduite d’une manière générale en se focalisant sur les simulateurs de point de vue conception. Dans cette partie, on a pris connaissance des différentes architectures mécaniques utilisées auparavant ainsi que les problèmes liés. Le choix de l'architecture du simulateur est guidé par les besoins nécessaires d'avoir une perception suffisante au cours de la simulation de conduite. Notre objectif est de reproduire les effets inertiels (accélération, effort,..) les plus pertinents perçus dans une conduite réelle. Le second chapitre aborde la dynamique des véhicules et compare celle des deux-roues contre les automobiles. Des adaptations pour des modèles dynamiques de moto ont été présentées pour répondre à nos besoins en termes de rendus privilégiés. Le troisième chapitre présente les aspects conception, réalisation, caractérisation et identification du simulateur de moto mis au point dans le cadre de cette thèse. Il constitue la principale contribution de ces travaux de recherche. Les deux derniers chapitres sont dédiés aux algorithmes de contrôle/commande ainsi qu’essais expérimentaux sur la plateforme. Ces tests ont été réalisés en vue de la caractérisation et la validation de performances de toute la chaîne de simulation
This thesis deals with the design and realization of a dynamic mechanical platform intended to the motorcycle riding simulation. This dissertation is organized into several principal sections. First, a literature review is conducted to identify the driving simulation problematic in a general way by focusing on the simulator design. In this part, it was aware of the various mechanical architectures used previously as well as the related limitations. The choice of the simulator‘s mechanical architecture of is driven by the needs to have an sufficient perception during simulated driving situation. Our goal is to reproduce the most relevant inertial effects (acceleration, torque, ..) perceived in a real world driving. The second chapter discusses an exhaustive comparison between automotive vehicles dynamics against the two-wheeled vehicles against. Existing motorcycles dynamic models are adjusted and of have been adapted to meet our needs in terms of privileged inertial cues. The third chapter presents the design aspects, mechanical realization, characterization and identification of the motorcycle simulator developed within the framework of this thesis. It constitutes the main contribution of this research works. Finally, the last two chapters are dedicated to motion cueing /control algorithms and open-loop experimentation on the simulator’s platform. These tests were performed for the characterization and validation of performance of the entire simulation loop
8

Chang, Yuyang. "Développement d'un nouvelle technique de mesure du profil atmosphérique en aérosols à l'aide d'un lidar Raman-dépolarisation-fluorescence." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. https://pepite-depot.univ-lille.fr/ToutIDP/EDSMRE/2023/2023ULILR060.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance de la répartition verticale des propriétés optiques et microphysiques des aérosols est cruciale pour étudier l'évolution et le transport des aérosols, ainsi que leurs impacts sur la santé humaine, l'environnement local et le climat mondial. Dans ce travail nous avons développé un algorithme BOREAL pour restituer les propriétés microphysiques des aérosols à partir de combinaisons de mesures lidar d'extinction, de rétrodiffusion et de dépolarisation spectrales. Basé sur une estimation de vraisemblance maximale, l'algorithme de restitution utilise une approche d'itération non linéaire pour rechercher la meilleure adéquation entre les mesures et les contraintes. Les propriétés microphysiques des aérosols restituées comprennent la distribution de taille des particules, leur concentration volumique, leur rayon efficace, l'indice de réfraction complexe (CRI) et l'albédo de diffusion simple (SSA).Les performances de BOREAL, sa précision et la sensibilité des mesures sont évaluées à l'aide de données simulées. En général, la précision de la restitution est meilleure pour les particules de mode fin que pour les particules de mode grossier. Les simulations démontrent l'importance de l'exploitation de contraintes a priori pour améliorer la précision de la restitution du CRI et du SSA. Outre les particules sphériques, la performance de la restitution des particules non sphériques est également évaluée en intégrant trois modèles de diffusion de particules différents, à savoir les modèles Sphérique, Sphéroïdale et Irrégulier-Hexaédrique (IH), dans BOREAL. Les résultats montrent que l'intégration des mesures de dépolarisation dans l'inversion est essentielle pour mieux contraindre et stabiliser la restitution. De plus, l'approximation des particules non sphériques par des sphères dégrade manifestement la qualité de la restitution. Enfin, BOREAL est utilisé pour restituer les propriétés aérosols au cours d'événements de feux de biomasse, de poussières désertiques et les d'aérosols continentaux pollués détectés depuis la plateforme ATOLL. Les résultats sont analysés et comparés aux restitutions d'AERONET ainsi qu'aux résultats d'études précédentes, ce qui démontrer la robustesse de BOREAL pour l'application de données réelles et la caractérisation d'aérosols.Ce travail contribue aux études menées dans le cadre du Labex CaPPA et d'ACTRIS en quantifiant les propriétés microphysiques des aérosols à partir des observations lidar
Vertical information on aerosol optical and microphysical properties is of significant importance to study aerosol evolution, transport, as well as their impacts on human health, local environment and global climate. This thesis developed an algorithm, the Basic algOrithm for REtrieval of Aerosol with Lidar (BOREAL), for retrieving heigh-resolved aerosol microphysical properties from combinations of extinction, backscattering and depolarization lidar measurements. Based on maximum likelihood estimation, the retrieval algorithm uses a nonlinear iteration approach to search for the best fit to both measurements and constraints. The retrieved aerosol microphysical properties include particle size distribution, volume concentration, effective radius, complex refractive index (CRI) and single scattering albedo (SSA).The performance of BOREAL, retrieval accuracy and measurement sensitivity are assessed through simulated data. In general, retrieval accuracy is higher for fine-mode particles than coarse-mode particles. The simulations demonstrate the importance of exploiting a priori constraint to improve the retrieval accuracy of CRI and SSA. Apart from spherical particles, performance of retrieving non-spherical particles is also evaluated by integrating three different particle scattering models, i.e., the Sphere, Spheroid and Irregular-Hexahedral (IH) models, into BOREAL. The results show incorporating depolarization measurements into inversion is essential to better constrain and stabilize the retrieval. Besides, approximating non-spherical particles to spheres will evidently degrade retrieval quality in cases of lidar measurements. In addition, BOREAL is applied to real lidar observations of different aerosol types, including biomass burning, dust and continental polluted aerosols at the ATOLL observatory. Results are analyzed and compared with retrievals from AERONET and previous studies, which demonstrates the robustness of BOREAL for real data application and aerosol characterization.Overall, this work contributes to Labex CaPPA and ACTRIS efforts to better quantify aerosol microphysical properties using lidar measurements
9

Ghasemi, Navid. "Improvement of the driving simulator control and comparison between driver-road-vehicule interaction in real and simulated environment." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les activités de recherche ont été menées en collaboration avec l'Université de Bologne, l'Université Paris-Est et l'Université Gustave Eiffel sous la forme d'un doctorat cotutelle. Les activités sont divisées en deux macro-domaines ; les études de simulation de conduite réalisées à l'Université Gustave Eifel (IFSTTAR) et les expériences sur route organisées par l'Université de Bologne. La première partie de la recherche se concentre sur l'amélioration de la fidélité physique du simulateur de conduite à deux degrés de liberté avec une attention particulière aux signaux de mouvement et au modèle de dynamique du véhicule. Ce dernier a été développé dans MATLAB-Simulink et a la capacité de calculer en temps réel les états du véhicule et de contrôler la plateforme de mouvement. Au cours de cette phase de la recherche, des algorithmes de repères de mouvement ont été développés pour contrôler les mouvements du simulateur et l'effet des signaux de mouvement sur le comportement des conducteurs a été analysé par expérimentation. Les résultats de ces études sont discutés dans les cas d’études I et II. Dans la deuxième partie de la recherche, les performances du conducteur et le comportement visuel ont été étudiés sur la route sous différents scénarios. Le comportement visuel du conducteur a été enregistré à l'aide d'un dispositif de suivi oculaire monté sur la tête, tandis que la trajectoire du véhicule a été enregistrée avec un véhicule instrumenté équipé du système de positionnement mondial. Au cours de cette phase, plusieurs études de cas ont été développées pour surveiller le comportement des conducteurs en milieu naturaliste. La cas d'étude III vise à intégrer l'audit de sécurité routière traditionnel à un système innovant de surveillance du comportement des conducteurs. L’expérimentation sur route avec des conducteurs a été réalisée sur une artère urbaine afin d'évaluer l'approche proposée à travers des techniques innovantes de suivi des conducteurs. Ces mêmes instruments de surveillance de la conduite ont été utilisés pour évaluer l'amélioration d'un passage pour piétons au rond-point dans le cas d'étude IV. Les données de suivi oculaire ont été évaluées dans les deux études afin d'identifier un indicateur d'attention visuelle du conducteur en fonction de la position et de la durée du regard des participants. Une attention particulière est accordée à la sécurité des conducteurs vulnérables dans les zones urbaines lors de l'étude du comportement de conduite naturaliste. Le cas d'étude V a analysé le comportement de conduite du conducteur en phase d'approche d'un passage prioritaire à vélo à l'aide de mesures de sécurité de substitution. Les mesures de performance des conducteurs telles que le temps de réaction de la perception et le comportement du regard ont été utilisées pour évaluer le niveau de sécurité du passage à niveau, équipé de systèmes de signalisation standard et innovants. L’amélioration du comportement cédant du conducteur vers un passage à niveau non signalé pendant la nuit et sa réaction à un système d’alarme d’éclairage intégré ont été évaluées dans le cas d’étude VI. La dernière phase de la thèse est consacrée à l'étude du régulateur de vitesse adaptatif (ACC) avec expérimentation sur route et sur simulateur. L'expérimentation sur route a étudié l'influence du système d'aide à la conduite sur l'adaptation des conducteurs avec une évaluation objective et subjective, dans laquelle un instrument de suivi oculaire et un casque EEG ont été utilisés pour surveiller les conducteurs sur une autoroute. Les résultats sont présentés dans les cas d’études VII et VIII et l’attention visuelle des conducteurs a été réduite en raison de l’adaptation à l’ACC dans le scénario de suivi de véhicule. Les résultats de l'essai sur route ont ensuite été utilisés pour reproduire le même scénario dans le simulateur de conduite et l'adaptation du comportement des conducteurs avec l'utilisation de l'ACC a été confirmée par l'expérimentation
The related research activities were carried out in collaboration with the University of Bologna, Paris-Est University and Gustave Eiffel University (IFSTTAR) in the form of a cotutelle PhD. The activities are divided into two macro areas ; the driving simulation studies conducted in Gustave Eifel University (IFSTTAR) and on-road experiments organized by the University of Bologna. The first part of the research is focused on improving the physical fidelity of the two DOF driving simulator with particular attention to motion cueing and vehicle dynamics model. The vehicle dynamics model has been developed in MATLAB-Simulink and has the ability of real-time calculation of the vehicle states and control the motion platform. During this phase of the research, motion cueing algorithms were developed to control the simulator movements and the effect of the motion cues on drivers’ behaviour was analysed through experimentation. The results of these studies are discussed in the case studies I and II. In the second part of the research, the driver performance and visual behaviour were studied on the road under different scenarios. The driver visual behaviour was recorded with the use of a head mounted eye-tracking device, while the vehicle trajectory was registered with an instrumented vehicle equipped with Global Positioning System (GPS). During this phase, several case studies were developed to monitor drivers’ behaviour in the naturalistic environment. Case study III aims to integrate the traditional road safety auditing with an innovative driver behaviour monitoring system. The real road experiment with drivers was carried out in an urban arterial road in order to evaluate the proposed approach through innovative driver monitoring techniques. These same driving monitoring instruments were used for evaluating the improvement of a pedestrian crossing at the roundabout in case study IV. The eye-tracking data were evaluated in both studies in order to identify a driver visual attention indicator based on the participants gaze position and duration. Significant attention is given to the safety of vulnerable drivers in urban areas during the naturalistic driving behaviour study. Case study V analyzed the driver yielding behaviour in approach phase to a bicycle priority crossing with the use of surrogate safety measures. The drivers’ performance measures such as perception reaction time and gaze behaviour were used to assess the safety level of the crossing equipped with standard and innovative signalling systems. The improvement on the driver’s yielding behaviour towards an un-signalized crossing during night-time and their reaction to an integrated lighting-warning system was evaluated in the case study VI. The last phase of the thesis is dedicated to the study of Adaptive Cruise Control (ACC) with on-road and simulator experimentation. The on-road experimentation investigated the driver assistant system influence on the drivers' adaptation with objective and subjective assessment, in which an eye tracking instrument and EEG helmet were used to monitor the drivers on a highway. The results are presented in Case studies VII and VIII and drivers’s visual attention was reduced due to adaptation to the ACC in the car following scenario. The results of the on-road test were later used to reproduce to the same scenario in the driving simulator and the adaptation of drivers’ behaviour with the use of ACC was confirmed through experimentation
10

Vishwakarma, Pragya. "Méthodes innovantes pour la restitution des propriétés des nuages à partir du radar BASTA." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASJ009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les nuages sont essentiels à de nombreux aspects de l'existence humaine sur terre. Ils ont également un impact significatif sur le bilan énergétique de la Terre. Bien que l'effet des nuages sur le climat soit complexe et ne soit pas entièrement compris, une grande partie de l'incertitude concernant le réchauffement climatique est liée aux mécanismes de rétroaction des nuages sur le climat. Des études ont montré que la représentation des nuages de basse altitude est encore sous-estimée dans divers modèles climatiques. La nécessité d'examiner les propriétés des nuages à différents niveaux est devenue une priorité dans l'observation de la terre. Des observations continues et détaillées des nuages sont nécessaires pour caractériser les propriétés des nuages à l'échelle locale et mondiale. Les instruments de télédétection active et passive tels que les radars de nuages, les lidars, les radiomètres dans le visible et les micro-ondes, etc. ont l'avantage de permettre une observation continue pendant de longues périodes depuis le sol ou l'espace. Ces capteurs fournissent des observations de l'état de l'atmosphère à plusieurs longueurs d'onde du spectre électromagnétique à différentes résolutions temporelles et spatiales.Un des paramètres fondamentaux pour caractériser les propriétés microphysiques de ces nuages de basse altitude est le contenu en eau liquide (LWC). Cette thèse vise à développer un algorithme d'estimation du LWC dans les nuages de basse altitude en utilisant de manière synergique le radar de nuage et le radiomètre micro-ondes (MWR). Un radar de nuages à 95GHz mesure l'énergie rétrodiffusée par les gouttelettes nuageuses et est représentée par le facteur de réflectivité radar (Z).. Pour retrouver le LWC des nuages liquides de basse altitude, on utilise traditionnellement des relations empiriques qui suivent une loi de puissance telle que Z=aLWCb. Cependant, ces relations ne représentent pas toujours la variabilité de la distribution en taille des gouttes dans un système nuageux hétérogène et ne tiennent pas compte de l’atténuation des nuages liquides. Dans cette thèse, je propose de réutiliser le même concept, mais la contrainte sur la pré-facteur 'a' de la loi de puissance est relachée en ajoutant des informations supplémentaires telles que le contenu intégré en eau liquide (LWP).Mon algorithme de restitution est basé sur une théorie d'estimation probabiliste appelée approche variationnelle. Grâce à ce cadre flexible, lorsque l’information sur le contenu en eau liquide intégré provenant du MWR est assimilée, le pré-facteur « a » peut également être restitué. Pour tester le comportement de l'algorithme, un test de sensibilité est réalisé en utilisant des profils de brouillard synthétiques issus d’une simulation AROME. L'analyse a montré que l'algorithme est très sensible au biais appliqué à LWP car il s'agit d'une information intégrée verticalement qui va impacter l’ensemble du profil. D'autres paramètres, tels que l’exposant 'b' et des relations d'atténuation alternatives, ont moins d'impact sur les résultats de l'algorithme.Comme le test de sensibilité ne permet pas de valider les hypothèses microphysiques de la méthode, le LWC restitué est comparé aux observations in-situ recueillies pendant la campagne SOFOG-3D. Les observations d'un radar nuage et d'un radiomètre micro-ondes co-localisés sont utilisées pour restituer LWC, et la comparaison a montré une meilleure concordance avec les observations in-situ pour les stratus que pour le brouillard.. Enfin, l'algorithme est appliqué à 39 cas de nuages et de brouillard de novembre 2018 à mai 2019 à l'observatoire SIRTA afin de construire une climatologie de LWC et de valeurs de pré-facteur « a ». Puisque la méthode de restitution doit être utilisable même sans information du radiomètre, nous proposons d'utiliser cette climatologie comme connaissance a priori des valeurs du pré-facteur « a » ce dernier n’étant contraint par le LWP
Clouds are critical to the majority of aspects of human existence on earth. They also have a significant impact on the earth's energy balance. Although the effect of clouds on the climate is complex and not fully understood, much of the uncertainty about global warming is related to the cloud-climate feedback problem. Studies have shown that the representation of low-level clouds is still underestimated in various climate models. The necessity to examine the cloud properties at different levels has emerged as a priority in earth observation. Continuous and detailed observations of clouds are needed to characterize the cloud properties on a local and global scale. Active remote and passive sensing instruments like cloud radars, lidars, visible and microwave radiometers, etc., have the advantage of continuous observation for long periods from the ground or space.One of the fundamental parameters to characterize the microphysical properties of these low-level clouds is the liquid water content (LWC). This thesis aims at developing an algorithm estimating LWC in low-level clouds using cloud radar and microwave radiometer (MWR) synergy when the latter is available. A 95GHz cloud radar measures the backscattered energy from cloud droplets in terms of radar reflectivity factor (Z). In the Rayleigh regime, Z is considered proportional to the sixth moment of droplet size. Traditionally, empirical relations following a power law such as Z=aLWCb are used to retrieve the LWC of low-level liquid clouds. However, such relationships do not always represent the variability of drop size distribution in a heterogeneous cloud system and do not account for liquid cloud attenuation. In this thesis, I propose using the same concept, but the constraint on ‘a’ from the power law is released by adding extra information such as the liquid water path (LWP). Studies have shown that the accuracy of LWC estimates can be increased by incorporating additional information from an independent remote sensing instrument like a microwave radiometer (MWR) in the retrieval method.My retrieval algorithm is based on probabilistic estimation theory called the variational approach. Thanks to this flexible framework, when liquid water path (LWP) information from MWR is assimilated, the LWC in the profile is scaled by LWP information, and the scaling factor (lna) can also be retrieved for each profile. To test the behavior of the retrieval algorithm, a sensitivity analysis for perturbations in key parameters using synthetic fog profiles from AROME simulation is conducted. The analysis has shown that the algorithm is very sensitive to the bias in LWP because it is a vertically integrated information and thus plays a critical role in the retrieval. Other parameters, such as 'b' and alternative attenuation relationships, have less implications on the stability of the algorithm.Because the sensitivity test is not validating the microphysical assumptions of the method,the validation of such an algorithm is challenging, as we need reference measurements of LWC co-located with the retrieved values.During the SOFOG-3D campaign (South-West of France, October 2019 to March 2020), in-situ measurements of LWC were collected in the vicinity of a cloud radar and a microwave radiometer, allowing comparison against my retrieved LWC. The comparison showed better agreement with in-situ observations for stratus clouds than fog. The comparison also demonstrated that cloud-fog heterogeneity is an important factor in the assessment. Finally, the retrieval algorithm is employed to build a climatology of LWC and lna for 39 cloud and fog cases from November 2018 to May 2019 at the SIRTA observatory. Since the retrieval method must be usable without radiometer information, we propose using this climatology as a priori knowledge for the scaling factor, which is no longer constrained by LWP

Book chapters on the topic "Algorithme de restitution":

1

Trizio, Ilaria, Francesca Savini, Romolo Continenza, Alessandro Giannangeli, Alessio Marchetti, and Fabio Redi. "Photogrammetric Survey and 3DGIS Management of Mesh in the Integrated Investigation of Complex Sites." In Conservation, Restoration, and Analysis of Architectural and Archaeological Heritage, 48–80. IGI Global, 2019. http://dx.doi.org/10.4018/978-1-5225-7555-9.ch003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This chapter illustrates the results of an experimentation carried out by a group of multidisciplinary researchers from the ITC-CNR of L'Aquila and of archaeologists and engineers from the University of L'Aquila. This research project is based on the analysis of architectural and archaeological artefacts (the state of conservation of the artefacts, seismic vulnerability, stratigraphic analysis, construction phases) using methods linked to innovative digital technologies such as digital photogrammetric restitution, based on structure from motion (SfM) algorithms and the generation of photorealistic textures. The innovative methodological approach specifically refers to the management of archaeological data concerning the state of conservation of structures, damages and to their seismic vulnerability in a 3D GIS environment, with particular attention to three-dimensional stratigraphic readings of the artefacts.

Conference papers on the topic "Algorithme de restitution":

1

Zakhariev, Evtim V. "A Numerical Method for Multibody System Frictional Impact Simulation." In ASME 2001 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference. American Society of Mechanical Engineers, 2001. http://dx.doi.org/10.1115/detc2001/vib-21367.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Abstract In the paper a numerical algorithm for modeling of impact of rigid and flexible multibody systems considering the nonlinear Coulomb friction is presented. The algorithm is developed on the basis of the kinematic decomposition of the contacting surfaces. The possible motion along the normal direction of the contact point tangential plane is considered generalized coordinate. The impulse-momentum equations are derived using a general algorithm for dynamics modeling and solved consequently for the two stages, compression and restitution, of the impact process. Rigid body impact theory and analysis of the contacting point relative velocity are applied for effective modeling of the events sliding-stiction and reverse sliding. The method presented considers either Newton’s or Poisson’s hypothesis for the coefficient of restitution. The same approach is used for flexible systems that are discretized using finite element theory. It is pointed out that, if rigid multibody systems are considered, the coefficient of restitution does not reveal the true picture of the impact process. Several examples are solved and compared with the results obtained in other treatments.
2

Awrejcewicz, Jan, Grzegorz Kudra, and C. H. Lamarque. "Analysis of Bifurcations and Chaos in Three Coupled Physical Pendulums With Impacts." In ASME 2001 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference. American Society of Mechanical Engineers, 2001. http://dx.doi.org/10.1115/detc2001/vib-21451.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Abstract In this work the triple pendulum with damping, external forcing and with impacts is investigated. The extension of a coefficient restitution rule and a special transition condition rule for perturbation (linearized system in the Lyapunov exponents algorithm) in each discontinuity point are applied. Periodic, quasi-periodic, chaotic and hyperchaotic motions are observed using Poincaré maps and bifurcational diagrams, which are verified by the Lyapunov exponents. In additon basins of attraction of some coexisting regular and irregular attractors are illustrated and discussed.
3

Xu, Yi, Lichen Wang, Yizhou Wang, Can Qin, Yulun Zhang, and Yun Fu. "MemREIN: Rein the Domain Shift for Cross-Domain Few-Shot Learning." In Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/505.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Few-shot learning aims to enable models generalize to new categories (query instances) with only limited labeled samples (support instances) from each category. Metric-based mechanism is a promising direction which compares feature embeddings via different metrics. However, it always fail to generalize to unseen domains due to the considerable domain gap challenge. In this paper, we propose a novel framework, MemREIN, which considers Memorized, Restitution, and Instance Normalization for cross-domain few-shot learning. Specifically, an instance normalization algorithm is explored to alleviate feature dissimilarity, which provides the initial model generalization ability. However, naively normalizing the feature would lose fine-grained discriminative knowledge between different classes. To this end, a memorized module is further proposed to separate the most refined knowledge and remember it. Then, a restitution module is utilized to restitute the discrimination ability from the learned knowledge. A novel reverse contrastive learning strategy is proposed to stabilize the distillation process. Extensive experiments on five popular benchmark datasets demonstrate that MemREIN well addresses the domain shift challenge, and significantly improves the performance up to 16.43% compared with state-of-the-art baselines.
4

Borello, Domenico, Paolo Capobianchi, Marco De Petris, Franco Rispoli, and Paolo Venturini. "Unsteady RANS Analysis of Particles Deposition in the Coolant Channel of a Gas Turbine Blade Using a Non-Linear Model." In ASME Turbo Expo 2014: Turbine Technical Conference and Exposition. American Society of Mechanical Engineers, 2014. http://dx.doi.org/10.1115/gt2014-26252.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The two-phase flow in a geometry representing the final portion of the internal cooling channels of a gas turbine blade is here presented and discussed. In the configuration under scrutiny, the coolant flows inside the duct in radial direction and it leaves the blade through the trailing edge after a 90 deg turning. An unsteady Reynolds Averaged Navier-Stokes (URANS) simulation of the flow inside such channel was carried out. An original non-linear version of the well-established ζ-f elliptic relaxation model was developed and applied here. The new model was implemented in the well-validated T-FlowS code currently developed by the authors’ group at Sapienza Università di Roma. The predictions demonstrated a good accuracy of the non-linear URANS model, clearly improving the results of the baseline linear ζ-f model and of the Launder Sharma k-ε model used as reference. The obtained unsteady flow field was adopted to track a large number of solid particles released from several selected sections at the inlet and representing the powders usually dispersed (sand, volcanic ashes) in the air spilled from the compressor and used as cooling fluid. The well-validated particle-tracking algorithm here adopted for determining the trajectories demonstrated to be very sensitive to the flow unsteadiness. Finally, the fouling of the solid surfaces was estimated by adopting a model based on the coefficient of restitution approach.
5

Bons, Jeffrey P., Rory Blunt, and Steven Whitaker. "A Comparison of Techniques for Particle Rebound Measurement in Gas Turbine Applications." In ASME Turbo Expo 2015: Turbine Technical Conference and Exposition. American Society of Mechanical Engineers, 2015. http://dx.doi.org/10.1115/gt2015-43766.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The rebound characteristics of 100–500μm quartz particles from an aluminum surface were imaged using the particle shadow velocimetry (PSV) technique. Particle trajectory data were acquired over a range of impact velocity (30–90 m/s) and impact angle (20°–90°) typical for gas turbine applications. The data were then analyzed to obtain coefficients of restitution (CoR) using four different techniques: (1) individual particle rebound velocity divided by the same particle’s inbound velocity (2) individual particle rebound velocity divided by inbound velocity taken from the mean of the inbound distribution of velocities from all particles (3) rebound velocity distribution divided by inbound velocity distribution related using distribution statistics and (4) the same process as (3) with additional precision provided by the correlation coefficient between the two distributions. It was found that the mean and standard deviation of the CoR prediction showed strong dependence on the standard deviation of the inbound velocity distribution. The two methods that employed statistical algorithms to account for the distribution shape [methods (3) and (4)] actually overpredicted mean CoR by up to 6% and CoR standard deviation by up to 100% relative to method (1). The error between the methods is shown to be a strong (and linear) function of correlation coefficient, which is typically 0.2–0.6 for experimental CoR data. Non-Gaussianity of the distributions only accounts for up to 1% of the error in mean CoR, and this largely from the non-zero skewness of the inbound velocity distribution. Particle rebound data acquired using field average techniques that do not provide an estimate of correlation coefficient are most accurately evaluated using method (2). Method (3) can be used with confidence if the standard deviation of the inbound velocity distribution is less than 10% of the mean velocity, or if a linear correction based on an assumed correlation coefficient is applied.

To the bibliography