Auswahl der wissenschaftlichen Literatur zum Thema „Maximisation de l’utilité du réseau“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Maximisation de l’utilité du réseau" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Maximisation de l’utilité du réseau"

1

CARTIER, FRANÇOIS. „Le traitement et la diffusion du fonds Armand-Frappier (ou comment être opportuniste en huit leçons)“. Archives 47, Nr. 2 (02.05.2018): 7–20. http://dx.doi.org/10.7202/1045165ar.

Der volle Inhalt der Quelle
Annotation:
Cet article nous relate les différentes étapes qui ont mené à la diffusion du Fonds Armand-Frappier. Ce fonds, déposé aux archives de l’Institut national de la recherche scientifique (INRS, une constituante du réseau de l’Université du Québec), illustre le parcours de cet homme qui eut une influence importante sur l’évolution des sciences au Québec. C’est le 25e anniversaire du décès du Dr Frappier qui a fourni le prétexte à ce projet de diffusion qui a finalement compris une exposition virtuelle et un programme de conférence. Pour arriver à leurs fins, l’équipe du service des archives de l’INRS a fait preuve de créativité et d’opportunisme afin d’aller chercher ressources et financement. Le projet a demandé dans un premier temps un nouveau traitement du fonds et a fait surgir de nombreuses questions quant au passage d’un format de description à un autre ainsi que sur les outils technologiques à utiliser. L’auteur aura retenu huit leçons au cours de ce projet. Il nous les livre ici par la description de sa mise en oeuvre. Ces leçons concernent, entre autres, la capacité de vendre notre idée, celle de saisir les opportunités et la nécessité de bien choisir ses collaborateurs et partenaires. Il revient également sur certains éléments de gestion, tels que l’évaluation du temps requis et l’utilité du plan B. Il nous incite finalement à réaliser la richesse de nos fonds et de l’intérêt qu’ils suscitent chez les jeunes. Cet article nous démontre qu’avec de l’initiative et la maximisation des programmes à notre disposition, il est possible de réaliser des projets qui deviennent des réussites.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Moffet, Denis. „Axiomes de rationalité en contexte d’incertitude“. L'Actualité économique 63, Nr. 2-3 (27.01.2009): 58–73. http://dx.doi.org/10.7202/601410ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Le principe de la maximisation de l’utilité espérée s’est imposé comme le principal paradigme de la décision en contexte d’incertitude. Ce principe repose sur une axiomatique controversée. Les axiomes litigieux sont l’axiome de substitution de Marschak et l’axiome d’indépendance de Savage. Le but de cette communication est de faire ressortir, d’une part, le caractère non axiomatique des prescriptions de Marschak et de Savage et, d’autre part, de montrer par une démarche par l’absurde qu’il peut être coûteux de ne pas agir conformément à ces prescriptions. Finalement, je vais proposer de nouveaux axiomes qui, par un processus déductif, conduiront à un théorème de substitution dont on pourra également déduire le principe de maximisation de l’utilité espérée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Forner, Yann, und Étienne Mullet. „Informatique et orientation“. L’Orientation scolaire et professionnelle 17, Nr. 3 (1988): 209–32. http://dx.doi.org/10.3406/binop.1988.1670.

Der volle Inhalt der Quelle
Annotation:
Le développement des conceptions éducatives de l’orientation et celui des possibilités offertes par l’informatique permettent la construction de logiciels pédagogiques de guidance. Deux des plus célèbres programmes d’orientation sont présentés : CHOICES et S.I.G.I. PLUS. Après le bref exposé de certains outils mathématiques, le ré-examen des deux logiciels fait apparaître deux logiques de décision très différentes, l’une d’appariement de profils et l’autre de maximisation de l’utilité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Masson, Paul R. „Les effets à long terme de différentes règles de financement du gouvernement“. Articles 59, Nr. 2 (21.07.2009): 266–82. http://dx.doi.org/10.7202/601216ar.

Der volle Inhalt der Quelle
Annotation:
Le but de ce texte est d’essayer de quantifier les effets de substitution entre travail et loisir induits par les changements d’impôts, et de voir combien ces effets modifient la neutralité du choix de financement du gouvernement. Un modèle basé sur la maximisation de l’utilité de la consommation et du loisir est estimé sur la période 1958 à 1980. Ce modèle sert ensuite à faire des simulations d’une augmentation temporaire des transferts, financée soit par les impôts, soit par les obligations. Les simulations indiquent que le mode de financement peut avoir un effet important sur le comportement de l’économie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Kus, Stéphane. „De l’utilité d’un réseau pour lutter contre les discriminations à l’école“. Les Cahiers du Développement Social Urbain N° 61, Nr. 1 (01.01.2015): 31. http://dx.doi.org/10.3917/cdsu.061.0031.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Botet, Lucile, und Samuel Renaud. „Étude et modélisation du couplage PV/Hydroélectricité“. E3S Web of Conferences 346 (2022): 03007. http://dx.doi.org/10.1051/e3sconf/202234603007.

Der volle Inhalt der Quelle
Annotation:
Le couplage d’une centrale solaire à un ouvrage hydroélectrique peut être une solution pertinente pour optimiser la production d’énergie hydroélectrique : maximisation de la production et optimisation de la courbe de production annuelle (stockage saisonnier plus flexible grâce à la production solaire supplémentaire). Sous réserve d’un dimensionnement solaire/hydroélectricité optimisé, cette hybridation est également bénéfique pour la centrale photovoltaïque. L’hydroélectricité peut compenser la variabilité du solaire lors des baisses de production journalières (effet nuages), limitant ainsi l’impact de la centrale solaire sur le réseau. Le montant de l’investissement nécessaire à l’implantation de la centrale solaire peut être optimisé (mutualisation des infrastructures d’interconnexion au réseau et des routes d’accès notamment). L’évaluation précise de ces synergies est complexe. Un outil numérique a été spécifiquement développé par Tractebel permettant de quantifier les synergies pour tous types de projets et identifier les conditions optimales de fonctionnement pour les maximiser. Cet article présente le principe de couplage et les fonctionnalités de l’outil HyPV. Des exemples de résultats sont présentés pour l’hybridation de la centrale de Kanji au Nigéria. Les conditions de maximisation de ces synergies sont présentées en fin de document.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Geneau, R., B. Legowski und S. Stachenko. „Réseau intersectoriel pour la prévention des maladies chroniques : le cas de l’Alberta Healthy Living Network“. Maladies chroniques au Canada 29, Nr. 4 (Oktober 2009): 170–80. http://dx.doi.org/10.24095/hpcdp.29.4.02f.

Der volle Inhalt der Quelle
Annotation:
Les maladies chroniques (MC) sont la principale cause de décès et d’incapacités à l’échelle mondiale. Les spécialistes des MC favorisent depuis longtemps le recours à des approches intersectorielles afin de consolider les efforts en matière de prévention des MC. Cette étude qualitative de cas a pour objet d’examiner les avantages et les difficultés perçus associés à l’établissement d’un réseau intersectoriel dédié à la prévention des MC. Deux thèmes dominants sont ressortis des données recueillies lors des entrevues réalisées auprès de membres importants de l’Alberta Healthy Living Network (AHLN ou le Réseau). Le premier thème a trait aux divergences de points de vue quant au rôle du Réseau, plus précisément en ce qui concerne ses interventions et les résultats qu’il obtient, notamment lorsqu’il s’agit de promouvoir les politiques adoptées. Le second thème est centré sur les avantages et l’utilité de l’AHLN, et sur la difficulté de faire état de résultats non quantifiables. Même si les personnes interviewées ont reconnu que l’AHLN avait contribué aux travaux intersectoriels menés en Alberta en prévention des maladies chroniques et favorisé la collaboration entre les membres du Réseau, plusieurs n’ont pas perçu ces réalisations comme une fin en soi et souhaitent maintenant voir le Réseau s’orienter davantage vers des activités génératrices de changements. La gestion d’attentes divergentes a eu une grande incidence sur le fonctionnement du Réseau.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Roelandt, J. L., I. Benradia, A. Vaglio, M. Marsili und A. C. Stona. „Révision et développement de la classification des troubles mentaux et du comportement, CIM-10, dans la francophonie“. European Psychiatry 29, S3 (November 2014): 567. http://dx.doi.org/10.1016/j.eurpsy.2014.09.248.

Der volle Inhalt der Quelle
Annotation:
ContexteLa révision de la classification internationale des maladies (CIM) est une responsabilité constitutionnelle de l’Organisation mondiale de la santé (OMS). La CIM est une norme diagnostique internationale utilisée par les 194 États Membres de l’OMS pour recueillir des statistiques de santé. Le département de santé mentale et abus de substance est responsable de la révision du chapitre des troubles mentaux et du comportement qui répond à une large série d’applications cliniques, de santé publique, de politique et de statistiques. Cette révision s’inscrit dans un processus global, multidisciplinaire, multilingue, transparent et indépendant de l’industrie pharmaceutique. Avec environ 220 millions de locuteurs de français dans le monde, la participation des francophones à la révision est essentielle. Ainsi le centre collaborateur de l’OMS (CCOMS) pour la santé mentale de Lille s’est associé aux CCOMS de Casablanca, Genève, Montréal, l’hôpital Razi de Tunis et l’université américaine de Beyrouth pour créer un consortium francophone d’appui à la révision.Objectifs– promouvoir la participation de la communauté francophone à la révision ;– maximiser l’utilité clinique de la classification ;– garantir la participation des usagers et des aidants.MéthodeIl s’agit d’un projet international, participatif, multicentrique, impliquant professionnels de santé mentale et de soins primaires, usagers et aidants, mené de 2013 à 2015 et se déclinant en quatre missions :– promotion de la participation des professionnels de santé mentale francophones au Réseau Mondial de Pratique Clinique ;– traduction du matériel CIM de l’anglais vers le français ;– mise en place d’études cliniques en francophonie pour tester la validité et l’utilité clinique de la classification ;– création d’un réseau mondial d’usagers et d’aidants en vue de leur implication dans la révision ;Résultats attendusCe projet permettra de valoriser dans la prochaine version de la CIM les spécificités francophones en associant toutes les parties prenantes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Magee, L. A., K. Massey, P. von Dadelszen, M. Fazio, B. Payne und R. Liston. „Repérage de sujets de recherche potentiels : utilité des registres sur papier et utilité des bases de données administratives des hôpitaux“. Maladies chroniques et blessures au Canada 32, Nr. 1 (Dezember 2011): 49–52. http://dx.doi.org/10.24095/hpcdp.32.1.06f.

Der volle Inhalt der Quelle
Annotation:
Introduction Le Réseau périnatal canadien (RPC) tient une base de données nationale centrée sur la menace d’accouchement très prématuré. Dans cette base de données sont incluses les femmes admises dans une unité participante de soins périnatals tertiaires entre la 22e et la 28e semaine (22 semaines et 0 jour et 28 semaines et 6 jours) de gestation et présentant l’un ou plusieurs des problèmes de santé les plus couramment associés à un accouchement très prématuré. Méthodologie Au BC Women’s Hospital and Health Centre, nous avons comparé l’utilité des registres classiques sur support papier tenus par les unités et l’utilité de la base de données électronique de l’Institut canadien d’information sur la santé (ICIS) sur les congés des patients comme méthode de repérage des patientes qui pourraient faire partie du Réseau périnatal canadien. Résultats L’étude a permis de recenser 244 femmes, admises entre avril et décembre 2007, susceptibles d’être incluses dans la base de données du RPC. Parmi les 155 femmes répondant aux critères fixés et dont les renseignements ont été entrés dans la base de données du RPC, chaque méthode a permis de trouver un nombre équivalent de dossiers uniques (142 et 147) que l’autre méthode n’avait pas permis de trouver : la recherche dans la base de données de l’ICIS a permis de trouver 10 dossiers supplémentaires (6,4 %) et l’examen des registres sur papier, d’en trouver 5 (3,2 %). Cependant, l’interrogation de la base de données de l’ICIS a abouti à ces résultats après l’examen d’un moins grand nombre de dossiers (206 contre 223) et en moins de temps (0,67 heure contre 13,6 heures dans le cas de l’examen des registres sur papier). Conclusion Les deux méthodes permettent de repérer des sujets de recherche potentiels en se servant de l’âge gestationnel comme critère. Bien que les méthodes électroniques soient plus rapides, on ne peut y avoir recours qu’une fois que les patientes ont obtenu leur congé de l’hôpital et que les dossiers et les registres ont été vérifiés. L’évaluation des avantages et des inconvénients de chacune des méthodes déterminera le choix à faire pour chaque projet spécifique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Stona, A. C., C. Kogan, J. Keeley, S. Evans und G. Reed. „Étude de terrain sur les troubles de l’alimentation et des conduites alimentaires dans le cadre du développement de la CIM 11“. European Psychiatry 29, S3 (November 2014): 568. http://dx.doi.org/10.1016/j.eurpsy.2014.09.249.

Der volle Inhalt der Quelle
Annotation:
ContexteDans le cadre du développement de la classification internationale des maladies (CIM-11), les groupes de travail ont développé des propositions avec pour objectif d’améliorer l’utilité clinique de la classification. Ces propositions sont testées via la plateforme internet « Réseau Mondial de Pratique Clinique (RMPC) » permettant de conduire à des études cliniques électroniques dans les langues officielles de l’OMS, dont le français. Cette étude s’intéresse aux catégories diagnostiques des troubles de l’alimentation et des conduites alimentaires (TCA). Des nouveaux diagnostics ont été proposés tels que le trouble d’hyperphagie et le trouble d’évitement et de restriction de l’apport alimentaire.Objectifs– évaluer l’impact des changements spécifiques des TCA entre la CIM-10 et la CIM-11 auprès des membres francophones du RMPC ;– évaluer la validité, l’utilité clinique des nouvelles propositions et l’accord inter-juges des participants.MéthodeÉtude mixte, internationale, conduite par internet auprès des membres francophones du RMPC.PopulationMembres du RMPC maîtrisant le français (environ 1000 professionnels) et exerçant une activité clinique.DéroulementLa population cible recevra un email d’invitation. Les participants seront amenés à lire deux vignettes puis à poser des diagnostics et à répondre à des questions complémentaires, en se basant sur la CIM-10 ou la CIM-11 qu’ils auront reçu de façon aléatoire.OutilsLes vignettes représenteront des cas cliniques réels et reflèteront les changements spécifiques entre la CIM-10 et la CIM-11. Elles seront ainsi présentées par pair (8 pairs possibles).AnalyseComparaisons :– interparticipants portant sur l’utilisation du système diagnostique (10 ou 11) et l’attribution du diagnostic en fonction des changements spécifiques ;– intra-participant sur l’évaluation des pairs de vignettes.Résultats attendusCette étude doit permettre d’évaluer les nouvelles propositions CIM en français, en tenant compte des spécificités culturelles et linguistiques de la francophonie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Maximisation de l’utilité du réseau"

1

López, Dawn Ricardo José. „Modélisation stochastique et analyse des données pour la diffusion d'information dans les plateformes sociales en ligne“. Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS036.pdf.

Der volle Inhalt der Quelle
Annotation:
Le marketing d'influenceurs est devenu une industrie florissante dont la valeur du marché mondial devrait atteindre 15 milliards de dollars d'ici 2022. Le problème publicitaire auquel ces agences sont confrontées est le suivant : compte tenu d'un budget monétaire, trouver un ensemble d'influenceurs appropriés qui peuvent créer et publier des posts de différents types (par exemple, texte, image, vidéo) pour la promotion d'un produit cible. L'objectif de la campagne est de maximiser à travers une ou plusieurs plateformes sociales en ligne une certaine mesure d'impact d'intérêt, par exemple le nombre d'impressions, les ventes (ROI), ou la portée de l'audience. Dans cette thèse, nous créons des formulations continues originales du problème du marketing d'influence budgétisé par deux cadres, un statique et un dynamique, basés sur la connaissance de l'annonceur de la métrique d'impact, et la nature des décisions de l'annonceur sur un horizon temporel. Le modèle statique est formulé comme un programme convexe, et nous proposons un algorithme itératif efficace basé sur la méthode de Frank-Wolfe, qui converge vers l'optimum global et présente une faible complexité de calcul. Nous suggérons également une règle empirique quasi-optimale plus simple, qui peut donner de bons résultats dans de nombreux scénarios pratiques. En raison de la nature du modèle dynamique, nous ne pouvons plus résoudre un problème de maximisation de l'utilité du réseau, puisque le retour sur investissement est inconnu, éventuellement bruyant, continu et coûteux à évaluer pour l'annonceur. Cette approche implique une exploration et nous cherchons donc à nous assurer qu'il n'y a pas d'exploration destructive, et que chaque décision séquentielle de l'annonceur améliore le résultat du ROI au fil du temps. Dans cette approche, nous proposons un nouvel algorithme et une nouvelle implémentation, basés sur le cadre d'optimisation bayésienne pour résoudre notre problème de marketing d'influence budgétisé sous des décisions séquentielles de l'annonceur sur un horizon temporel. En outre, nous proposons une observation empirique pour éviter la malédiction de la dimensionnalité. Nous testons notre modèle statique, l'algorithme et l'heuristique contre plusieurs alternatives de la littérature d'optimisation ainsi que des méthodes de sélection de graines standard et nous validons la performance supérieure de Frank-Wolfe en temps d'exécution et en mémoire, ainsi que sa capacité à s'adapter à des problèmes avec un très grand nombre (millions) d'utilisateurs sociaux. Enfin, nous évaluons notre modèle dynamique sur une trace réelle de données et nous concluons à la faisabilité de notre modèle et au soutien empirique de notre observation formulée
Influencer marketing has become a thriving industry with a global market value expected to reach 15 billion dollars by 2022. The advertising problem that such agencies face is the following: given a monetary budget find a set of appropriate influencers that can create and publish posts of various types (e.g. text, image, video) for the promotion of a target product. The campaign's objective is to maximize across one or multiple online social platforms some impact metric of interest, e.g. number of impressions, sales (ROI), or audience reach. In this thesis, we create original continuous formulations of the budgeted influence marketing problem by two frameworks, a static and a dynamic one, based on the advertiser's knowledge of the impact metric, and the nature of the advertiser's decisions over a time horizon. The static model is formulated as a convex program, and we further propose an efficient iterative algorithm based on the Frank-Wolfe method, that converges to the global optimum and has low computational complexity. We also suggest a simpler near-optimal rule of thumb, which can perform well in many practical scenarios. Due to the nature of the dynamic model we cannot solve any more a Network Utility Maximisation problem since that the ROI is unknown, possibly noisy, continuous and costly to evaluate for the advertiser. This approach involves exploration and so, we seek to ensure that there is no destructive exploration, and that each sequential decision by the advertiser improves the outcome of the ROI over time. In this approach, we propose a new algorithm and a new implementation, based on the Bayesian optimization framework to solve our budgeted influence marketing problem under sequential advertiser's decisions over a time horizon. Besides, we propose an empirical observation to avoid the curse of dimensionality. We test our static model, algorithm and the heuristic against several alternatives from the optimization literature as well as standard seed selection methods and validate the superior performance of Frank-Wolfe in execution time and memory, as well as its capability to scale well for problems with very large number (millions) of social users. Finally, we evaluate our dynamic model on a real Twitter data trace and we conclude the feasibility of our model and empirical support of our formulated observation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tran, Côn. „Adaptation de capacité dans le réseau dédié de service pour la maximisation du bénéfice“. Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/928/1/TRAN_C%C3%B4n.pdf.

Der volle Inhalt der Quelle
Annotation:
Les réseaux dédiés de service (Service Overlay Network – SON) sont formés en plaçant des noeuds dédiés dans l’Internet et en les reliant par des liens dédiés établis avec de la bande passante, incluant garantie de Qualité de Service (QoS), achetée d’une multitude de Systèmes Autonomes Internet (AS). La bande passante est obtenue par accords de niveau de service (Service Level Agreement – SLA) avec les fournisseurs de service Internet qui sont propriétaires des AS. Par sa couverture sur la multitude de AS, le SON peut alors fournir la QoS de bout en bout aux connexions de services en temps réel qu’il admet. La quantité de largeur de bande achetée a un effet à la fois sur le trafic admis et sur le coût du réseau, affectant ainsi le bénéfice de l’opérateur du réseau. Cela donne à ce dernier la possibilité d’optimiser son bénéfice en adaptant ses ressources de réseau aux conditions changeantes de la demande de trafic et des coûts de SLA. Deux éléments sont requis pour réaliser l’optimisation : une méthode efficace d’estimation en temps réel de la demande de trafic, et une approche d’adaptation de capacité optimale qui sera alimentée par l’estimation de la demande. Dans cette thèse, nous proposons des nouvelles approches pour répondre à ces besoins identifiés. Notre approche d’adaptation de capacité maximise le bénéfice du réseau en changeant lorsque requis les termes des SLA, afin d’adapter l’attribution de la largeur de bande des liens dédiés à de fréquentes estimations de demande de trafic. Pendant que s’effectue l’adaptation de capacité, le degré de service du réseau, spécifié par des contraintes de blocage de connexions, doit être maintenu. En s’appuyant sur un modèle économique, l’adaptation des ressources de lien est intégrée à la politique de contrôle d’admission de connexions (CAC) et de routage en vigueur dans le réseau. Dans notre approche, nous proposons d’appliquer une politique de CAC et routage, fondée sur la théorie de décision de Markov, qui maximise la récompense du réseau, bien que d’autres politiques de routage soient aussi applicables. L’intégration mène à un algorithme itératif et distribué d’adaptation de capacité de lien, où la sensibilité du bénéfice du réseau aux dimensions de lien est calculée à partir de la moyenne du shadow price de lien, qui lui-même constitue un paramètre du routage. Des approches d’estimation en temps réel de tendance de demande de trafic, fondée sur des mesures et convenant bien à l’adaptation de capacité du SON, sont ensuite proposées. Dans la première approche, le paramètre du modèle de lissage exponentiel (Exponential Smoothing – ES) est adapté à la tendance de trafic. La tendance dans ce cas est estimée en utilisant les fonctions d’autocorrélation et de distribution cumulée de mesures de taux d’arrivées de connexion. La deuxième approche applique un filtre de Kalman dont le modèle est construit à partir de données historiques de trafic. Dans ce dernier cas, la disponibilité de la distribution de l’erreur d’estimation dans l’algorithme du filtre permet d’élaborer une méthode qui améliore le contrôle du degré de service durant l’adaptation de capacité. L’analyse ainsi que la simulation des modèles proposés ont été effectuées pour évaluer la performance des approches. La maximisation du bénéfice du réseau par l’approche d’adaptation de capacité est confirmée avec une étude analytique d’exemples de petits réseaux. Ensuite, la simulation d’exemples réalistes de réseau démontre les meilleurs bénéfices et/ou degré de service obtenus par notre approche d’adaptation de capacité, quand on la compare à l’attribution fixe de capacités de liens. L’étude de l’estimation de demande de trafic montre que la performance de l’adaptation de capacité est améliorée par l’usage de nos méthodes proposées. Les méthodes adaptatives procurent des bénéfices plus élevés que celles à paramètre fixe. L’estimation par lissage exponentiel adaptée par autocorrélation donne la meilleure performance combinée réponsestabilité, quand on la compare aux autres lissages exponentiels. Enfin, les approches fondées sur filtre de Kalman améliorent l’adaptation de capacité, démontrant des réductions significatives de l’augmentation du blocage du réseau quand la demande de trafic augmente.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Tran, Quoc-Tran. „Some contributions to financial market modelling with transaction costs“. Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090036/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite plusieurs problèmes qui se posent pour les marchés financiers avec coûts de transaction et se compose de quatre parties.On commence, dans la première partie, par une étude du problème de couverture approximative d’une option Européenne pour des marchés de volatilité locale avec coûts de transaction proportionnelles.Dans la seconde partie, on considère le problème de l’optimisation de consommation dans le modèle de Kabanov, lorsque les prix sont conduits par un processus de Lévy.Dans la troisième partie, on propose un modèle général incluant le cas de coûts fixes et coûts proportionnels. En introduisant la notion de fonction liquidative, on étudie le problème de sur-réplication d’une option et plusieurs types d’opportunités d’arbitrage.La dernière partie est consacrée à l’étude du problème de maximisation de l’utilité de la richesse terminale d’une portefeuille sous contraintes de risque
This thesis deals with different problems related to markets with transaction costs and is composed of four parts.In part I, we begin with the study of assymptotic hedging a European option in a local volatility model with bid-ask spread.In part II, we study the optimal consumption problem in a Kabanov model with jumps and with default risk allowed.In part III, we sugest a general market model defined by a liquidation procès. This model is more general than the models with both fixed and proportional transaction costs. We study the problem of super-hedging an option, and the arbitrage theory in this model.In the last part, we study the utility maximization problem under expected risk constraint
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Tacheix, Thierry. „L'influence des variables financières sur l'emploi : France 1970-1988“. Clermont-Ferrand 1, 1991. http://www.theses.fr/1991CLF10007.

Der volle Inhalt der Quelle
Annotation:
Cette étude appréhende le rôle de trois variables financières réelles (le taux d’intérêt, le taux de croissance du cours des actions et le taux de change) sur l’emploi. L’analyse est menée à travers leur influence sur l’offre et sur la demande, et fait appel aux théories micro et macroéconomiques, ainsi qu’à celles de la croissance. Nous développons de nouvelles formes d’intégration de ces variables dans les modèles existants. Une étude économétrique appliquée à la France sur la période 1970-1988 étudie le bien-fondé des théories en vigueur, et l’apport de nos modèles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Feng, Yuting. „Diffusion-Aware Recommendation in Social Media“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG009.

Der volle Inhalt der Quelle
Annotation:
Avec la popularité montante des médias sociaux en tant que voies d'accès à l'information, la formulation de recommandations dans des scénarios sociaux spécifiques mérite une attention particulière, où les modèles de diffusion de l'information et les mécanismes d'influence sont exploités. Dans notre travail, nous nous efforçons de servir l'information aux utilisateurs des médias sociaux de manière directe ou indirecte : la première se rapportant à la recommandation des actualités et la seconde à la maximisation de l'influence dans un objectif de l'équité.Les systèmes de recommandation des actualités sont généralement basés sur le contenu sémantique des articles et les profils des utilisateurs, alors que le scénario de recommandation implicite est ignoré. Nous considérons une perspective de diffusion et d'influence sur le problème de la recommandation des actualités, et nous proposons une approche légère d'apprentissage profond, appelée DSN (Deep Influence-Aware News Recommendation in Social Media). Cette approche vise la recommandation des actualités dans les plateformes de micro-blogging, telles que Twitter ou Weibo, dont l'extrême vélocité des données exige un compromis satisfaisant entre la complexité du modèle et son efficacité. Nous utilisons des "graph embeddings" - des représentations de nœuds qui sont indicatives des schémas de diffusion des actualités - qui conduisent à des informations sociales précieuses pour les recommandations. Pour fusionner les représentations sémantiques et sociales des actualités, un réseau neuronal convolutif spécialement conçu pour la représentation conjointe des caractéristiques (SCNN, Social-Related Multi-Source Feature Extraction) est utilisé comme encodeur d'actualité, tandis qu'un modèle d'attention agrège automatiquement les différents intérêts des utilisateurs. Pour approfondir la dimension temporelle et les problèmes liés à la séquentialité de la recommandation des actualités dans le scénario des microblogs, nous proposons une deuxième approche de recommandation qui tient également compte de la diffusion et de l'influence dans le média, appelée IGNiteR (News Recommendation in Microblogging Applications). Il s'agit d'un modèle de recommandation approfondie basé sur le contenu qui exploite conjointement toutes les facettes des données susceptibles d'avoir un impact sur les décisions d'y acceder. Nous avons réalisé des expériences approfondies sur les deux mêmes ensembles de données du monde réel, montrant qu'IGNiteR surpasse les méthodes de recommandation des actualités basées sur l'apprentissage profond les plus récentes.Pour la recommandation indirecte des informations concernant la maximisation de l'influence avec équité, qui vise à sélectionner k nœuds influents pour maximiser la diffusion d'informations dans un réseau, tout en garantissant que certains attributs sensibles des utilisateurs (par exemple, le sexe, l'emplacement, l'âge, etc.) sont affectés équitablement. Le défi consiste donc à trouver une solution évolutive, applicable à des réseaux comptant des millions ou des milliards de nœuds. Nous proposons deux approches basées sur les données : (a) l'échantillonnage des participants basé sur l'équité (FPS, Fairness-based Participant Sampling), et (b) l'équité en tant que contexte (FAC, Fairness as Contex). Elles sont basées sur l'apprentissage des représentations des nœuds (embeddings) pour extraire les caractéristiques des utilisateurs liées à la propagation des informations à partir des cascades de diffusion, au lieu de la connectivité sociale, et de cette façon nous pouvons traiter de très grands graphes. Les caractéristiques extraites sont ensuite utilisées pour sélectionner les influenceurs qui maximisent la propagation de l'influence. Les algorithmes proposés sont génériques et représentent les premières solutions axées sur les politiques qui peuvent être appliquées à des ensembles arbitraires d'attributs sensibles à grande échelle
With the increasing popularity of social media as pathways to information, making recommendations in specific social scenarios deserves attention, where the information diffusion patterns and influence mechanisms therein are exploited. We strive in our work to develop models and algorithms for serving information to users in social media, either in a direct user-based (personalized) way or in an indirect audience-based way, with the former pertaining to news recommendation and the latter referring to fairness in influence maximization. News recommendation systems are generally based on the semantic content of news items and user profiles, whereas the underlying recommendation scenario is ignored. We consider in our PhD work a diffusion and influence-aware perspective on the news recommendation problem, and we first propose a lightweight deep learning approach for it, called DSN. This approach targets news recommendation in micro-blogging platforms, such as Twitter or Weibo, whose extreme data velocity demands a satisfactory trade-off between the model's complexity and its effectiveness. We use graph embeddings -- node representations that are indicative of news diffusion patterns -- leading to valuable social-related information for recommendations. To merge the semantics and social-related representations of news, a specially designed convolutional neural network for joint feature representation (SCNN) is used as the news encoder, while an attention model automatically aggregates the different interests of users. To further exploit the time dimension, with a sequential recommendation perspective on news recommendation in the micro-blogging scenario, we propose secondly in our PhD work an alternative deep-learning based recommendation model, which is also diffusion and influence-aware, called Influence-Graph News Recommender (IGNteR). It is a content-based deep recommendation model that jointly exploits all the data facets that may impact adoption decisions, namely semantics, diffusion-related features pertaining to local and global influence among users, temporal attractiveness, and timeliness, as well as dynamic user preferences. We perform extensive experiments on the same real-world datasets, showing that IGNiteR outperforms the state-of-the-art deep-learning based news recommendation methods.For the indirect and audience-based recommendation setting, we focus on influence maximization with fairness, which aims to select k influential nodes to maximise the spread of information in a network, while ensuring that selected sensitive user attributes (e.g., gender location, origin, race, etc.) are fairly affected, i.e., are proportionally similar between the original network and the affected users. We propose two data-driven approaches: (a) fairness-based participant sampling (FPS) and (b) fairness as context (FAC), which are based on learning node representations (embeddings) to extract spread-related user features from diffusion cascades information, instead of the social connectivity, and in this way we can deal with very large graphs. The extracted features are then used in selecting influencers that maximize the influence spread, while also being fair with respect to the chosen sensitive attributes. In FPS, fairness and cascade length information are considered independently in the decision-making process, while FAC considers these information facets jointly and takes into account correlations between them. The proposed algorithms are generic and represent the first policy-driven solutions that can be applied to arbitrary sets of sensitive attributes at scale
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Diop, Cheikh Abdoulahat. „La structure multimodale de la distribution de probabilité de la réflectivité radar des précipitations“. Toulouse 3, 2012. http://thesesups.ups-tlse.fr/3089/.

Der volle Inhalt der Quelle
Annotation:
Un ensemble de données radar collectées sur divers sites du réseau américain de radars bande S, Nexrad (Next Generation Weather Radar), est utilisé pour analyser la fonction de distribution de probabilité (fdp) du facteur de réflectivité radar (Z) des précipitations, soit P(Z). Nous avons étudié et comparé divers types de systèmes précipitants : 1) orages grêlifères sur le site continental de Little Rock (Arkansas), 2) convection péninsulaire et côtière à Miami (Floride), 3) convection côtière et transition terre/mer à Brownsville (Texas) , 4) convection maritime tropicale à Hawaii, 5) convection maritime des latitudes moyennes à Eureka (Californie), 6) neige associée aux systèmes frontaux continentaux d'hiver à New York City (New York) et 7) neige à Middleton Island (Alaska), une zone maritime des hautes latitudes. On montre que chaque type de système précipitant a une signature spécifique au niveau de la forme de P(Z). La distribution P(Z) a une forme complexe. Nous montrons qu'il s'agit d'un mélange de plusieurs composantes gaussiennes, chacune étant attribuable à un type de précipitation. Avec l'algorithme EM (Expectation Maximisation) de Dempster et al. 1977, basé sur la méthode du maximum devraisemblance, on décompose la fdp des systèmes précipitants en quatre compo-santes : 1) le nuage et les précipitations de très faible intensité ou drizzle, 2) les précipitations stratiformes, 3) les précipitations convectives et 4) la grêle. Chaque composante est représentée par une gaussienne définie par sa moyenne, sa variance et la proportion de l'aire qu'elle occupe dans le mélange. On a mis en évidence l'absence de composante grêle dans les P(Z) des cas de systèmes convectifs maritimes et côtiers. Les chutes de neige correspondent à des distributions P(Z) plus régulières. La présence de plusieurs composantes dans P(Z) est liée à des différences dans la dynamique et la microphysique propres à chaque composante. Une combinaison linéaire des différentes composantes gaussiennes a permis d'obtenir un très bon ajustement de P(Z). Nous présentons ensuite une application des résultats de la décomposition de P(Z). Nous avons isolé chaque composante, et pour chacune d'elles, la distribution de réflectivité est convertie en une distribution d'intensité de précipitation (R), soit P(R) ayant comme paramètres µR et sR2 qui sont respectivement la moyenne et la variance. On montre, sur le le graphe (µR ,sR2), que chaque composante occupe une région spécifique, suggérant ainsi que les types de précipitation identifiés constituent des populations distinctes. Par exemple, la position des points représentatifs de la neige montre que cette dernière est statistiquement différente de la pluie. Le coefficient de variation de P(R), CVR = sR /µR est constant pour chaque type de précipitation. Ce résultat implique que la connaissance de CVR et la mesure de l'un des paramètres de P(R) permet de déterminer l'autre et de définir la distributionde l'intensité de précipitation pour chaque composante. L'influence des coefficients a et b de la relation Z = aRb sur P(R) a été également discutée
A set of radar data gathered over various sites of the US Nexrad (Next Generation Weather Radar) S band radar network is used to analyse the probability distribution function (pdf) of the radar reflectivity factor (Z) of precipitation, P(Z). Various storm types are studied and a comparison between them is made: 1) hailstorms at the continental site of Little Rock (Arkansas), 2) peninsular and coastal convection at Miami (Florida), 3) coastal convection and land/sea transition at Brownsville (Texas), 4) tropical maritime convection at Hawaii, 5) midlatitude maritime convection at Eureka (California), 6) snowstorms from winter frontal continental systems at New York City (New York), and 7) high latitude maritime snowstorms at Middleton Island (Alaska). Each storm type has a specific P(Z) signature with a complex shape. It is shown that P(Z) is a mixture of Gaussian components, each of them being attribuable to a precipitation type. Using the EM (Expectation Maximisation) algorithm of Dempster et al. 1977, based on the maximum likelihood method, four main components are categorized in hailstorms: 1) cloud and precipitation of very low intensity or drizzle, 2) stratiform precipitation, 3) convective precipitation, and 4) hail. Each component is described by the fraction of area occupied inside P(Z) and by the two Gaussian parameters, mean and variance. The absence of hail component in maritime and coastal storms is highlighted. For snowstorms, P(Z) has a more regular shape. The presence of several components in P(Z) is linked to some differences in the dynamics and microphysics of each precipitation type. The retrieval of the mixed distribution by a linear combination of the Gaussian components gives a very stisfactory P(Z) fitting. An application of the results of the split-up of P(Z) is then presented. Cloud, rain, and hail components have been isolated and each corresponding P(Z) is converted into a probability distribution of rain rate P(R) which parameters are µR and sR2 , respectively mean and variance. It is shown on the graph (µR ,sR2) that each precipitation type occupies a specific area. This suggests that the identified components are distinct. For example, the location of snowstorms representative points indicates that snow is statistically different from rain. The P(R) variation coefficient, CVR = sR/µR is constant for each precipitation type. This result implies that knowing CVR and measuring only one of the P(R) parameters enable to determine the other one and to define the rain rate probability distribution. The influence of the coefficients a and b of the relation Z = aRb on P(R) is also discussed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Limaiem, Heykel. „Maximisation du débit TCP dans les réseaux OBS“. Mémoire, 2010. http://www.archipel.uqam.ca/2676/1/M11277.pdf.

Der volle Inhalt der Quelle
Annotation:
Les réseaux optiques ont connu une émergence importante dans le domaine des télécommunications, et ceci grâce à leur bande passante offerte. Actuellement, la technique la plus prometteuse est la commutation optique de rafales (OBS). D'une part, OBS permet une meilIeure exploitation de la bande passante, tout en ayant un degré de complexité inférieur à OPS (Optical Packet Switching), d'autre part, OBS offre une gestion des ressources beaucoup plus efficace, comparée à OCS (Optical Circuit Switching). Plusieurs études ont démontré que le mécanisme « load-balancing » permet d'équilibrer le trafic à travers les différents noeuds, réduisant ainsi la probabilité de congestion dans les réseaux OBS. Cependant, l'utilisation du « load-balancing » a mis en évidence d'autres problèmes, particulièrement au niveau de la couche TCP (Transmission Control Protocol). De là, « Source-ordering » a été proposé comme solution pour améliorer les performances de TCP, en effectuant l'ordonnancement des rafales au niveau des sources. Dans ce travail, nous nous proposons d'étudier et d'approfondir le mécanisme du « load-balancing » afin de maximiser le débit TCP. Notre défi consiste a trouver un concept permettant d'éviter la réception en désordre des segments IP, au niveau de la couche TCP, et par conséquent à réduire le nombre de FTOs (False Time Out) et de FFRs (False Fast Retransmit). Nous avons implémenté une nouvelle technique basée sur le mécanisme de résolution de contention proactive « load-balancing » qu'on a appelée « ordonnancement à la destination ». Les résultats obtenus montrent une amélioration importante du débit TCP lors de l'emploi du mécanisme d'ordonnancement à la destination. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maximisation du débit TCP, OBS, TCP, Rafale, Résolution de contention, Mécanisme proactif, Chemins alternatifs, Equilibrage de charge.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie