Academic literature on the topic 'Lissages exponentiels'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Lissages exponentiels.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Lissages exponentiels":

1

Indjehagopian, Jean-Pierre, and Sandrine Macé. "Mesures d'impact de promotion des ventes : Description et comparaison de trois méthodes." Recherche et Applications en Marketing (French Edition) 9, no. 4 (December 1994): 53–79. http://dx.doi.org/10.1177/076737019400900403.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Mesurer l'impact d'une promotion sur les ventes d'un produit et analyser l'effet au cours du temps est une tâche importante pour un responsable de produit. Cet article applique et compare trois approches statistiques pour mesurer l'impact de promotions (ou d'actions marketing) sur les ventes de deux produits. La première approche proposée par le logiciel FuturMaster consiste à estimer les ventes que l'on aurait dû observer s'il n'y avait pas eu de promotions à l'aide du modèle de lissage exponentiel de Holt-Winters. La seconde approche utilise une extension du modèle Holt-Winters permettant la prise en compte d'évènements marketing. A chaque type d'actions marketing, par exemple des promotions de type de réduction de prix, il est associé un indice de promotion. Cette approche est celle utilisée par le logiciel Forecast Pro XE. La troisième démarche consiste à modéliser la série des ventes, contaminées par des données atypiques provenant d'actions marketing, à partir de modèles ARIMA et des fonctions d'intervention. La procédure utilisée pour détecter et caractériser la nature des données atypiques est celle proposée par le logiciel SCA. Les données analysées portent sur des consommations mensuelles de jus d'orange et de biscuits apéritifs soumises à des actions promotionnelles.
2

Leclerc, André, and Mario Fortin. "Économies d’échelle et de gamme dans les coopératives de services financiers : une approche non paramétrique (DEA)." Articles 85, no. 3 (November 10, 2010): 263–82. http://dx.doi.org/10.7202/044877ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lorsque des économies d’échelle et de gamme sont simultanément présentes, le regroupement des établissements tend à réduire les coûts. Puisque de nombreuses études empiriques ont déjà établi que les coûts des banques tendent à devenir proportionnels au-delà d’une certaine taille, il y aurait une limite à ces économies d’échelle et de gamme dans l’industrie bancaire. Nous étudions si l’important processus de fusions des caisses Desjardins et des caisses acadiennes entrepris en 1998 les a poussées au-delà de leur seuil minimal d’efficacité. Une analyse initiale à l’aide du lissage exponentiel montre que le coût moyen d’opération cesse de diminuer lorsque l’actif d’une caisse atteint 250 millions de dollars. Nous effectuons cependant une analyse plus formelle à l’aide de la méthode du Data envelopment analysis (DEA) et utilisons un résultat de Fortin et Leclerc (2006) pour décomposer les économies de gamme en efficacité d’échelle et en une mesure de convexité de la fonction de production. En combinant cette décomposition avec les méthodes maintenant bien connues pour calculer l’efficacité d’échelle avec le DEA, nous montrons que la plupart des fusions ont amené la caisse fusionnée à une taille telle qu’elle se situe en situation de rendement d’échelle décroissant. La recherche de la taille optimale ne semble donc pas être la première préoccupation dans la décision de fusion.

Dissertations / Theses on the topic "Lissages exponentiels":

1

Cifonelli, Antonio. "Probabilistic exponential smoothing for explainable AI in the supply chain domain." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMIR41.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de pénétration de cette nouvelle technologie a rencontré certains freins au sein des entreprises, en particulier, les coûts de mise œuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problèmes de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes : - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve ; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite : le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entière est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au cœur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en œuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspond mieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter [...]
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow
2

Rostami, Tabar Bahman. "ARIMA demand forecasting by aggregation." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00980614.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Demand forecasting performance is subject to the uncertainty underlying the time series an organisation is dealing with. There are many approaches that may be used to reduce demand uncertainty and consequently improve the forecasting (and inventory control) performance. An intuitively appealing such approach that is known to be effective is demand aggregation. One approach is to aggregate demand in lower-frequency 'time buckets'. Such an approach is often referred to, in the academic literature, as temporal aggregation. Another approach discussed in the literature is that associated with cross-sectional aggregation, which involves aggregating different time series to obtain higher level forecasts.This research discusses whether it is appropriate to use the original (not aggregated) data to generate a forecast or one should rather aggregate data first and then generate a forecast. This Ph.D. thesis reveals the conditions under which each approach leads to a superior performance as judged based on forecast accuracy. Throughout this work, it is assumed that the underlying structure of the demand time series follows an AutoRegressive Integrated Moving Average (ARIMA) process.In the first part of our1 research, the effect of temporal aggregation on demand forecasting is analysed. It is assumed that the non-aggregate demand follows an autoregressive moving average process of order one, ARMA(1,1). Additionally, the associated special cases of a first-order autoregressive process, AR(1) and a moving average process of order one, MA(1) are also considered, and a Single Exponential Smoothing (SES) procedure is used to forecast demand. These demand processes are often encountered in practice and SES is one of the standard estimators used in industry. Theoretical Mean Squared Error expressions are derived for the aggregate and the non-aggregate demand in order to contrast the relevant forecasting performances. The theoretical analysis is validated by an extensive numerical investigation and experimentation with an empirical dataset. The results indicate that performance improvements achieved through the aggregation approach are a function of the aggregation level, the smoothing constant value used for SES and the process parameters.In the second part of our research, the effect of cross-sectional aggregation on demand forecasting is evaluated. More specifically, the relative effectiveness of top-down (TD) and bottom-up (BU) approaches are compared for forecasting the aggregate and sub-aggregate demands. It is assumed that that the sub-aggregate demand follows either a ARMA(1,1) or a non-stationary Integrated Moving Average process of order one, IMA(1,1) and a SES procedure is used to extrapolate future requirements. Such demand processes are often encountered in practice and, as discussed above, SES is one of the standard estimators used in industry (in addition to being the optimal estimator for an IMA(1) process). Theoretical Mean Squared Errors are derived for the BU and TD approach in order to contrast the relevant forecasting performances. The theoretical analysis is supported by an extensive numerical investigation at both the aggregate and sub-aggregate levels in addition to empirically validating our findings on a real dataset from a European superstore. The results show that the superiority of each approach is a function of the series autocorrelation, the cross-correlation between series and the comparison level.Finally, for both parts of the research, valuable insights are offered to practitioners and an agenda for further research in this area is provided.

Book chapters on the topic "Lissages exponentiels":

1

Aragon, Yves. "Lissage exponentiel." In Pratique R, 121–32. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0208-4_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"Chapitre 6 Lissage exponentiel." In Séries temporelles avec R, 123–34. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1994-2-009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"Chapitre 6 Lissage exponentiel." In Séries temporelles avec R, 123–34. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1994-2.c009.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography