Littérature scientifique sur le sujet « Prédiction de ressources »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Prédiction de ressources ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Prédiction de ressources"

1

Cairns, Robert D. « Les ressources non renouvelables : le côté offre ». Articles 66, no 4 (28 janvier 2009) : 444–60. http://dx.doi.org/10.7202/601548ar.

Texte intégral
Résumé :
RÉSUMÉ Il y a un malaise intellectuel qui afflige le côté « demande » en économie des ressources non renouvelables, c’est-à-dire la branche qui vise à relier l’épuisement des stocks globaux à la consommation agrégée. On passe ici en revue les « faits stylisés » de la discipline, lesquels apparaissent plus cohérents avec les contraintes imposées par le côté « offre ». On note que l’hétérogénéité des réserves est plus pertinente aux faits que leur épuisabilité; que l’existence de biais d’agrégation rend futile la prédiction des prix; que l’investissement joue un rôle important; et que la politique économique devrait être plus attentive aux asymétries d’information.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Massou, Luc, Jean-Baptiste Lanfranchi, Brian Chauvel et Stéphanie Fleck. « Travail collectif et usages du numérique : Quelle catégorisation de pratiques chez des enseignants français à l’école et au collège ? » Médiations et médiatisations, no 5 (29 janvier 2021) : 134–61. http://dx.doi.org/10.52358/mm.vi5.171.

Texte intégral
Résumé :
Dans le cadre du projet e-TAC Environnements Tangibles et Augmentés pour l'Apprentissage Collaboratif, une enquête par questionnaire a été menée en ligne auprès d’enseignants de cycles 3 et 4 de Moselle (France) pour mieux décrire leurs pratiques de travail collectif entre pairs et en classe, avec ou sans numérique. Au travers de l’analyse des 972 réponses obtenues, nous traiterons deux questions principales : quelles sont les catégories de pratiques déclarées par les enseignants et la place qu’y occupent les outils et ressources numériques? De quoi dépend la fréquence du travail en groupe de leurs élèves à l’école et au collège? Nos traitements statistiques sur les données relatives aux pratiques des professeurs des écoles et des enseignants de collèges permettent, d’une part, d’identifier quatre catégories de variables associées aux pratiques de travail collectif chez les enseignants, qui s’agrègent selon deux axes paradigmatiques (enseignant/apprenant, autocentré/hétérocentré), et d’autre part, d’étudier la force de prédiction de six catégories de variables du travail en groupe avec leurs élèves, où l’impact des usages d’outils et ressources numériques s’avère finalement très secondaire.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Barrette, Jacques, et Jules Carrière. « La performance organisationnelle et la complémentarité des pratiques de gestion des ressources humaines ». Articles 58, no 3 (22 janvier 2004) : 427–53. http://dx.doi.org/10.7202/007494ar.

Texte intégral
Résumé :
Résumé L’article présente dans un premier temps un aperçu du rôle et de l’importance de la complémentarité des pratiques de GRH dans la prédiction de la performance organisationnelle. Après avoir expliqué le concept de grappes de pratiques, les auteurs soulèvent les limites quant aux différentes approches pour mesurer la complémentarité. Ces derniers discutent de l’importance de combiner les pratiques sur une base rationnelle et proposent une définition et une méthode en ce sens. Enfin, l’importance de prendre en considération le secteur industriel dans l’analyse du lien entre la complémentarité et la performance organisationnelle est soulevée afin de poser par la suite les objectifs et hypothèses de la recherche. Les résultats indiquent que l’accroissement de la complémentarité des pratiques de GRH est lié à une augmentation de la productivité et de l’efficience, au positionnement concurrentiel de l’organisation et à l’acquisition de clients et d’une part du marché.
Styles APA, Harvard, Vancouver, ISO, etc.
4

PHOCAS, F., C. BELLOC, J. BIDANEL, L. DELABY, J. Y. DOURMAD, B. DUMONT, P. EZANNO et al. « Quels programmes d’amélioration génétique des animaux pour des systèmes d’élevage agro-écologiques ? » INRA Productions Animales 30, no 1 (14 juin 2018) : 31–46. http://dx.doi.org/10.20870/productions-animales.2017.30.1.2232.

Texte intégral
Résumé :
L’agro-écologie utilise les processus naturels et les ressources locales plutôt que des intrants chimiques pour assurer la production tout en limitant l’impact environnemental de l’agriculture. A cette fin, des innovations en génétique sont nécessaires pour disposer d’animaux productifs et adaptés à des contextes locaux variés. Pour toute filière d’élevage, réorienter les programmes de sélection actuels semble plus utile que développer des programmes spécifiques qui peineront à être efficaces en termes de coûts et de progrès génétiques attendus. Améliorer la robustesse des animaux vise à promouvoir leurs capacités d’adaptation en intégrant de nombreux critères de sélection, en particulier de reproduction, santé, et d’adaptation à des ressources alimentaires peu digestibles et au changement climatique. Cela amène à considérer les interactions génotype-environnement dans la prédiction des valeurs génétiques et à évaluer les performances des animaux dans des systèmes à bas intrants pour sélectionner ceux qui sont adaptés à des conditions limitantes. La standardisation tant des animaux que des conditions d’élevage paraît antinomique avec les principes de l’agro-écologie prônant une adaptation des animaux aux ressources et contraintes locales dans des systèmes peu artificialisés et très liés à leur environnement physique. Il n’y a donc pas UN animal type agro-écologique, mais DES animaux aux profils variés permettant de répondre aux attentes de l’agro-écologie. Face à la diversité des milieux et des systèmes d’élevage, il faut conserver une diversité génétique importante intra-race, mais aussi préserver la diversité génétique entre races. Cela nécessite une caractérisation phénotypique et génétique des races locales. Enfin, il s’agit de favoriser l'appropriation par les éleveurs et les techniciens d’élevage des outils et des ressources génétiques disponibles pour répondre à leurs besoins.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Olivier, Jean-Marc. « Prédiction et prévision en histoire économique : les succès suisses et scandinaves étaient-ils prévisibles ? » Nouvelles perspectives en sciences sociales 6, no 2 (13 septembre 2011) : 87–96. http://dx.doi.org/10.7202/1005771ar.

Texte intégral
Résumé :
L’historien de l’économie dispose de multiples outils pour analyser les réussites économiques. Il parvient le plus souvent à les rendre logiques et évidentes, mais en ayant la chance de travailler sur des évènements passés qui ne peuvent pas contredire son raisonnement. Toutefois, l’analyse des plus beaux succès – suisses et scandinaves – nuance les modèles les plus couramment admis : comme l’exploitation de ressources naturelles abondantes, la révolution industrielle libérale à l’anglaise ou le triomphe de la grande usine. En effet, les développements suisse, suédois et norvégien offrent de belles pistes de réflexion car ils reposent davantage sur les PME, sur des politiques volontaristes et sur une maîtrise ancienne des statistiques.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Faye, R. M., S. Sawadogo et F. Mora-Camino. « Logique floue Appliquée à la gestion à long terme des ressources en eau ». Revue des sciences de l'eau 15, no 3 (12 avril 2005) : 579–96. http://dx.doi.org/10.7202/705470ar.

Texte intégral
Résumé :
Dans le contexte de la rareté des ressources en eau, une approche globale de la gestion à long terme d'un système de stockage/transfert/distribution d'eau est proposée. L'objectif principal de la gestion d'un tel type de système est de gérer les réserves et les délestages de manière à minimiser les écarts entre offre et demande, ceci à partir d'une prédiction de la demande et des apports. Ainsi, on propose une approche à horizon glissant et surtout une procédure d'adaptation des pondérations du critère fondée sur la logique floue. Cette notion d'adaptation du critère parait tout à fait judicieuse quand on connaît la difficulté de définir les pondérations de tels problèmes d'optimisation et son influence sur la pertinence de la solution obtenue. On vérifie ici l'apport essentiel de la logique floue qui permet d'appréhender finement les enjeux en présence dans la gestion de long terme du système stockage/transfert/distribution d'eau. Le problème de gestion à long terme est résolu par une heuristique améliorée utilisant la programmation linéaire et la programmation dynamique pour réduire les effets de la discrétisation spatiale qui est si limitative dans ce contexte. L'approche de gestion proposée est effectivement appliquée à un cas d'étude qui permet de mettre en évidence sa relative simplicité de mise en œuvre.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Cruz García, Lirios. « Teoría del comportamiento sustentable para el desarrollo local ». Clivajes. Revista de Ciencias Sociales, no 9 (24 avril 2018) : 71–94. http://dx.doi.org/10.25009/clivajes-rcs.v0i9.2546.

Texte intégral
Résumé :
La psicología de la sustentabilidad estriba en la predicción de un comportamiento que, por sus dimensiones y determinantes, se ha identificado como factor de sustentabilidad. En este sentido, este trabajo pretende discutir el proceso sociohistórico en el que se ha desarrollado el constructo del comportamiento sustentable, más a partir de evidencias empíricas que de debates teóricos, conceptuales, metodológicos o estadísticos. Este ejercicio llama la atención acerca de la participación deliberativa de la comunidad y se inscribe en el debate sobre la relación entre sociedad y Estado con respecto a la conservación de los recursos naturales mediante los servicios públicos, municipales y residenciales. En este tenor, la revisión de los hallazgos extraídos del contraste de modelos de medición en referencia a modelos estructurales supone no sólo la especificación de relaciones de dependencia, sino su discusión, dado que fueron importados de disciplinas tales como la pedagogía, la economía, la sociología o la antropología para incorporarlos en los modelos predictivos del comportamiento sustentable.Palabras clave: Recursos naturales, Servicios públicos, Psicología de la sustentabilidad, Comportamiento sustentable, Modelos estructurales Theory of sustainable behavior for local developmentSummaryThe psychology of sustainability is based on the prediction of a behavior that, due to its dimensions and determinants, has been identified as a sustainability factor. In this sense, this work aims to discuss the sociohistorical process in which the construct of sustainable behavior has been developed, more from empirical evidence than from theoretical, conceptual, methodological or statistical debates. This exercise draws attention to the deliberative participation of the community and is part of the debate about the relationship between society and the State with respect to the conservation of natural resources through public, municipal and residential services. In this sense, the review of the findings extracted from the contrast of measurement models in reference to structural models supposes not only the specification of dependency relations, but their discussion, given that they were imported from disciplines such as pedagogy, economics, sociology or anthropology to incorporate them into predictive models of sustainable behavior.Keywords: Natural resources, Public services, Sustainability psychology, Sustainable behavior, Structural models. Théorie du comportement pour le développement durable au niveau localRésuméLa psychologie du développement durable réside dans la prédiction d’un comportement qui, par ses dimensions et déterminations, a été identifié comme un facteur en faveur de ce développement. En ce sens, ce travail prétend rendre compte du processus historique dans lequel s’est construit le comportement pour le développement durable, davantage à partir d’évidences empiriques que de débats théoriques, méthodologiques et statistiques. Cet exercice met l’accent sur la participation délibérative de la communauté et s’inscrit dans le débat sur la relation entre société et Etat en ce qui concerne la conservation des ressources naturelles au travers des services publics, municipaux et résidentiels. De ce point de vue, l’examen des découvertes extraites du contraste entre les modèles de mesure en référence aux modèles structurels suppose non seulement la mise en lumière spécifique de relations de dépendance, mais aussi leur discussion, puisqu’ils furent importés de disciplines comme la pédagogie, l’économie, la sociologie et l’anthropologie, afin de les incorporer aux modèles prédictifs du comportement en faveur du développement soutenable.Mots-clés: Ressources naturelles, Services publics, Psychologie du développement durable, Comportement pour le développement durable, Modèles structurels
Styles APA, Harvard, Vancouver, ISO, etc.
8

Munoz, Alain. « EVALUATION PAR VALIDATION INDEPENDANTE DES PREDICTIONS DES PARAMETRES FORESTIERS REALISEES A PARTIR DE DONNEES LIDAR AEROPORTE ». Revue Française de Photogrammétrie et de Télédétection 1, no 211-212 (6 décembre 2015) : 81–92. http://dx.doi.org/10.52638/rfpt.2015.547.

Texte intégral
Résumé :
L’utilisation des données LiDAR aéroporté pour modéliser, caractériser et cartographier la ressource forestière esteffective depuis une dizaine d’années dans les pays d’Amérique du Nord ou d’Europe du Nord. Néanmoins, en France, il existe peu d’exemples d’applications forestières du LiDAR sur de grandes surfaces, dans des contextes forestiers souvent plus complexes et hétérogènes que les forêts boréales et les grandes pinèdes du nord de l’Europe. Dans cette étude, la méthode dite « surfacique », qui consiste à calibrer des modèles empiriques de régression mettant en relation des paramètres dendrométriques mesurés sur le terrain avec des métriques dérivées des données LiDAR, est évaluée sur trois sites forestiers français. Les modèles de prédiction se basent sur les métriques usuelles dérivées du nuage de points LiDAR, ainsi que sur des métriques calculées à partir d'une individualisation préalable des houppiers des arbres dominants. Une validation indépendante, à l’échelle du peuplement, a permis d’évaluer la fiabilité des modèles de prédiction sur des surfaces de l'ordre d’un hectare, pertinentes pour le gestionnaire. Les résultats montrent qu’il est possible de caractériser la ressource forestière dans différents peuplements, allant des hêtraies ou pinèdes régulières de plaine aux sapinières-pessières hétérogènes de montagne. L'erreur des modèles (RMSE) estimée par validation croisée à l'échelle de la placette est de 14 à 22 % (R² de 0,75 à 0,90) pour la surface terrière, de 7 à 8 % (R² de 0,76 à 0,96) pour le diamètre dominant et de 17 à 32 % (R² de 0,50 à 0,88) pour la densité de tiges. La validation indépendante à l’échelle du peuplement montre une bonne fiabilité des modèles quel que soit le paramètre forestier étudié, et tant qu’ils sont utilisés dans leur domaine de validité. Les écarts entre les moyennes des prédictions et les mesures de référence terrain sont de l’ordre de 10 à 15 % pour la surface terrière, de 6 à 8% pour le diamètre dominant et de 10 à 33% pour la densité de tiges. Ces résultats démontrent, sur des surfaces unitaires d’environ un hectare, que l'inventaire par LiDAR aérien peut atteindre une précision équivalente à celle des méthodes traditionnelles de terrain, y compris pour des forêts complexes.
Styles APA, Harvard, Vancouver, ISO, etc.
9

ROGUET, C., B. DUMONT et S. PRACHE. « Sélection et utilisation des ressources fourragères par les herbivores : théories et expérimentations à l’échelle du site et de la station alimentaires ». INRAE Productions Animales 11, no 4 (3 octobre 1998) : 273–84. http://dx.doi.org/10.20870/productions-animales.1998.11.4.3954.

Texte intégral
Résumé :
Mieux comprendre la relation animal-végétation est nécessaire pour développer des systèmes de gestion qui favorisent le maintien par le pâturage d’une ressource suffisamment riche et abondante. Dans ces conditions, l’animal peut couvrir ses besoins nutritionnels et assurer une productivité suffisante, tout en participant à l’entretien du milieu. L’article fait le point, à partir d’un grand nombre de travaux expérimentaux, sur les facteurs qui influencent la sélection et l’utilisation des sites et stations alimentaires par les herbivores. La première partie est consacrée au cadre théorique dans lequel sont discutées les observations expérimentales. Le contexte général de la Théorie de l’Alimentation Optimale (TAO) et ses prédictions, sont décrits. L’’applicabilité’, l’utilité et la validité des modèles d’optimisation dans l’étude du comportement alimentaire des herbivores sont tout particulièrement considérées. Ensuite, est étudiée l’influence des différents facteurs, trophiques (quantité et qualité des ressources fourragères, espèce végétale), environnementaux (topographie, distance aux points d’eau, présence d’abris et risques de prédation) et animaux (capacités cognitives et organisation sociale) sur la sélection et l’utilisation des sites et des stations alimentaires par les herbivores. La TAO permet d’expliquer les stratégies alimentaires des herbivores. Cependant, les choix des animaux ne sont en général pas aussi absolus que ceux prédits. En conditions naturelles, les animaux répondent non seulement à la ressource alimentaire, mais aussi à différentes contraintes externes (environnement non alimentaire) et internes (mémoire, discrimination). D’autres approches complémentaires, telles l’’hédonisme’ et la ’sagesse nutritionnelle’, susceptibles d’influencer les choix des animaux, sont brièvement analysées.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Levang, Patrice, Nicolas Buyse, Soaduon Sitorus et Edmond Dounias. « Impact de la décentralisation sur la gestion des ressources forestières en Indonésie ». Anthropologie et Sociétés 29, no 1 (18 novembre 2005) : 81–102. http://dx.doi.org/10.7202/011741ar.

Texte intégral
Résumé :
Résumé En Indonésie, la chute du régime du Président Suharto (1965-1998) s’est traduite par de profonds bouleversements dans les relations entre le centre et la périphérie de l’archipel. Le changement est particulièrement marqué dans les districts riches en ressources naturelles. Notre étude analyse les conséquences de l’« Autonomie Régionale » sur la gestion des ressources forestières dans deux districts de Kalimantan-Est (partie indonésienne de Bornéo). La description de la réorganisation du secteur forestier en Indonésie est suivie par une analyse des nouvelles pratiques autonomisées des districts. Se démarquant d’une analyse prédictive ou idéalisée des politiques de décentralisation, l’article analyse, à partir d’études de terrain, les répercussions économiques, sociales et écologiques de ces nouvelles dynamiques sur les populations forestières en Indonésie.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Prédiction de ressources"

1

Santi, Nina. « Prédiction des besoins pour la gestion de serveurs mobiles en périphérie ». Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Texte intégral
Résumé :
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
Styles APA, Harvard, Vancouver, ISO, etc.
2

Galtier, Virginie. « Éléments de gestion des ressources de calcul dans les réseaux actifs hétérogènes ». Nancy 1, 2002. http://docnum.univ-lorraine.fr/public/SCD_T_2002_0017_GALTIER.pdf.

Texte intégral
Résumé :
Fruit des progrès réalisés dans plusieurs domaines de la science informatique ces dernières années, le concept de réseau actif est actuellement à l'étude pour permettre l'introduction de nouveaux services réseau de façon plus dynamique que dans les réseaux actuels. Il donne aux applications la possibilité de définir la pile de protocoles qu'elles souhaitent voir employée pour le traitement de leurs paquets aux nœuds du réseau. Dans ce nouveau contexte très variable, pour qu'un nœud puisse gérer intelligemment ses ressources en calcul il faut que les applications actives lui déclarent leurs besoins. Malheureusement, s'il existe des unités bien établies pour exprimer les besoins en mémoire (octet) ou en bande passante (bit/seconde) d'un programme, il n'existe pas d'unité pour exprimer les besoins en calcul (temps processeur) qui puisse se traduire sur les machines aux performances parfois très différentes composant un réseau actif. Dans l'hypothèse où les différents comportements possibles d'une application sont identifiés et peuvent être répétés dans une phase initiale de traçage, nous proposons de modéliser une application par une série de scénarios, où un scénario a une certaine probabilité d'occurrence et est caractérisé par une suite de services que les paquets de l'application demandent aux nœuds sur lesquels ils s'exécutent. Les performances des nœuds actifs sont évaluées par des benchmarks dédiés. La combinaison de ces deux informations permet à un nœud de prévoir a priori combien de temps CPU l'exécution d'une application active est susceptible de demander. Nous montrons que le nœud peut alors utiliser cette information pour réaliser une "gestion renseignée", plus efficace que la "gestion arbitraire" classique. Nous proposons également de faire évoluer les modèles afin que notre approche reste satisfaisante avec des hypothèses moins restrictives.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Choutri, Amira. « Gestion des ressources et de la consommation énergétique dans les réseaux mobiles hétérogènes ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV043/document.

Texte intégral
Résumé :
L'objectif de cette thèse est de développer les méthodes nécessaires à une gestion ciblée et efficace de la mobilité des utilisateurs dans un réseau mobile hétérogène. Ces réseaux sont caractérisés par le déploiement de différents types de cellules (macro, micro, pico et/ou femto). Le déploiement massif des petites cellules (pico et femto) a permis d'offrir une capacité et une qualité de couverture accrue au réseau, notamment dans les zones à forte densité. Cependant, les contraintes temps réel engendrées limitent la QoS offerte aux utilisateurs. De plus, pour des raisons commerciales et/ou environnementales, la nécessité de réduire la consommation énergétique des réseaux mobiles est devenue une réalité. Ainsi, les opérateurs mobiles doivent trouver le bon compromis entre d'une part, la garantie de la QoS offerte aux utilisateurs et la vitesse de mobilité de ces derniers, et d'une autre part, le coût énergétique engendré pour le déploiement du réseau. Pour cela, dans le cadre de la gestion de la mobilité des utilisateurs, nous proposons des modèles pour la gestion des ressources des stations de base ainsi que pour la gestion de leur consommation énergétique. Le premier modèle proposé vise à gérer le partage des ressources entre les clients de l'opérateur mobile. Basé sur la prédiction de la mobilité des utilisateurs, ce modèle permet d'anticiper la gestion des ressources d'une station de base. Le deuxième modèle gère la consommation énergétique du réseau en se basant sur un contrôle d'affectation des utilisateurs mobiles. Cela permet de contrôler en continu la consommation énergétique des stations de base et la QoS qu'elles offrent aux utilisateurs mobiles. Par simulation, en utilisant une topologie réelle d'un réseau mobile, les performances des méthodes proposées sont évaluées en considérant différents scénarios possibles. Leurs performances sont comparées à celles de l'approche adoptée par des opérateurs mobiles actuels, ainsi qu'à celles de certaines approches proposées dans la littérature
The objective of this thesis is to develop methods for a targeted and efficient management of users mobility in heterogeneous mobile networks. This network is characterized by the deployment of different types of cells (macro, micro, pico and/or femto). The massive deployment of small cells (pico and femto) provides a supplementary coverage and capacity to mobile networks, specially in dense areas. However, the resulting real-time constraints limit the offered QoS. Furthermore, for commercial and/or environmental reasons, the needs to reduce the energy consumed by mobile networks became reality. Thus, mobile operators have to find a good compromise between, on the one hand, the users velocity and the guaranteed QoS, and on the other hand, the cost of deployment of such networks. For that, in the context of users mobility management, we propose models for resource and energy consumption management of base stations. The first model aims at controlling resource sharing between clients of the mobile operators. Based on a mobility prediction of users, this model anticipates the resource management of a base station. The second model aims at reducing energy consumption of the network by managing mobile users assignment to detected cells. This allows a continuous control of consumed energy of base stations while offered QoS is guaranteed. Based on simulation of a real mobile network topology, the performances of proposed models are evaluated while considering different possible scenarios. They are compared to the performances of different strategies as the ones proposed in literature or adopted by current mobile operators
Styles APA, Harvard, Vancouver, ISO, etc.
4

Miegemolle, Bernard. « Prédiction de comportement d'applications parallèles et placement à l'aide de modèles économiques sur une grille de calcul ». Phd thesis, INSA de Toulouse, 2008. http://tel.archives-ouvertes.fr/tel-00420473.

Texte intégral
Résumé :
Une des solutions les plus prometteuses actuellement à la course à la puissance de traitement consiste à créer des grilles. Néanmoins, leur utilisation optimale n'est pas encore atteinte dû notamment à la complexité que ce support d'exécution amène pour les administrateurs et utilisateurs. Cette thèse se concentre sur la gestion des ressources composant une grille de calcul. Nous montrons comment traiter ce problème à l'aide de paradigmes économiques. Nous définissons un modèle économique permettant de gérer les ressources d'une grille. Ce modèle propose d'associer un coût à chacune des machines de la grille. Le placement d'une application est assimilé à un problème d'optimisation non-linéaire sous contraintes et à variables entières, pour lequel le choix des machines à utiliser doit minimiser un compromis entre le temps d'exécution de l'application et son coût. Une implémentation de ce modèle à l'aide d'un algorithme génétique est proposée, de même que son intégration au sein de l'ordonnanceur OAR utilisé sur Grid'5000. Dans une seconde partie de la thèse, des travaux ont été effectués dans le domaine de la prédiction du temps d'exécution d'une application. Nous définissons une méthode hybride de prédiction basée à la fois sur le profil des applications ainsi que sur un historique d'exécutions passées, combinant une analyse de la structure du programme à une méthode d'apprentissage basé sur des instances. Nous montrons notamment que la prise en compte du profil des applications améliore les prédictions réalisées au moyen de méthodes classiques basées seulement sur des historiques d'exécutions passées.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dufour, Luc. « Contribution à la mise au point d'un pilotage énergétique décentralisé par prédiction ». Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0004/document.

Texte intégral
Résumé :
Comment satisfaire les besoins en énergie d’une population de 9 milliards d’êtres humains en 2050, de façon économiquement viable tout en minimisant l’impact sur l’environnement. Une des réponses est l’insertion de production d’énergie propre d’origine éolienne et photovoltaïque mais leurs totales dépendances aux variations climatiques accentuent une pression sur le réseau. Les modèles prédictifs historiques centralisés et paramétriques ont du mal à appréhender les variations brutales de productions et de consommations. La révolution internet permet aujourd’hui une convergence entre le numérique et l’énergie. En Europe et depuis cinq ans, l’axe d’étude est celui de la maîtrise locale de l’électricité. Ainsi plusieurs quartiers intelligents ont été créés et les modèles utilisés de pilotage et de prédiction restent souvent la propriété des partenaires des projets. Dans cette thèse, Il s’agit de réaliser un bilan énergétique chaque heure pour prédire l’ensemble des vecteurs énergétiques d’un système. Le besoin en énergie d’un système comme une maison est décomposée en un besoin en chauffage, en un besoin en eau chaude sanitaire, en un besoin en luminaires, en besoin de ventilation et en usages spécifiques électriques utiles. Le système peut posséder une production décentralisée et un système de stockage ce qui augmentera sa capacité d’effacement. Pour le centre de pilotage, l’objectif est d’avoir une possibilité de scénarios de surproductions ou surconsommations sur un quartier donnée à court terme. Nous considérerons dans cette thèse un horizon à l’heure pour notre bilan énergétique. Cela implique une prédiction fine des différents flux énergétiques d’un système en particulier le chauffage et l’eau chaude qui représente le plus gros potentiel de flexibilité dans les bâtiments. Pour réaliser un bilan, nous devons calculer les différents flux énergétiques à l’intérieur de notre système : les déperditions par l’enveloppe et la ventilation, les gains internes solaires, des personnes et des appareils, le stockage, la production d’eau chaude sanitaire, les usages spécifiques électriques utiles. Sur certains de ces points, nous pouvons évaluer assez précisément et en fonction du temps les quantités d’énergie échangées. Pour les autres (ECS, USE, gains internes, stockage), la bibliographie nous donne que des méthodes globales et indépendantes du temps. Il n’est donc pas possible d’envisager une méthode correspondant au pas de temps souhaité. Ceci impose la mise au point d’une méthode prédictive et apprenante dont nos modèles de simulation énergétique seront le point de référence. Il n’en reste pas moins que ces modèles permettent la compréhension du comportement énergétique du système. L’outil se devra non intrusif, personnalisé, robuste et simple. Pour limiter le caractère intrusif de l’outil, il s’agit à la fois d’ajouter de l’intelligence comme par exemple l’identification des appareils utiles à partir d’un seul point de mesure mais aussi la collection et l’analyse d’informations localement. Les données privées ne sont pas transmises vers l’extérieur. Seules les informations de prédictions énergétiques sont envoyées à un niveau supérieur pour agrégation des données des quartiers. L’intelligence est également au niveau des prédictions réalisées issues de méthodes d’apprentissage comme l’utilisation des réseaux de neurones ou des arbres de décision. La robustesse est étudiée d’un point de vue technologie (plusieurs protocoles de communication ont été testés), techniques (plusieurs méthodes de collecte) et d’un point de vue du stockage de données (limiter la fréquence de collecte). La simplicité d’usage engendre une simplicité d’installation minimiser le nombre de données d’entrée tout en gardant une précision souhaitable sera notre principal axe d’optimisation
This work presents a data-intensive solution to manage energy flux after a low transformer voltage named microgrid concept. A microgrid is an aggregation of building with a decentralized energy production and or not a storage system. These microgrid can be aggregate to create an intelligent virtual power plant. However, many problems must be resolved to increase the part of these microgrid and the renewable resource in a energy mix. The physic model can not integrate and resolve in a short time the quickly variations. The intelligent district can be integrate a part of flexibility in their production with a storage system. This storage can be electrical with a battery or thermal with the heating and the hot water. For a virtual power plant, the system can be autonomous when the price electricity prediction is low and increase the production provided on the market when the price electricity is high. For a energy supplier and with a decentralized production building distant of a low transformer voltage, a regulation with a storage capacity enable a tension regulation. Finally, the auto-consumption becomes more and more interesting combined with a low electrical storage price and the result of the COP 21 in Paris engage the different country towards the energy transition. In these cases, a flexibility is crucial at the building level but this flexibility is possible if, and only if, the locally prediction are correct to manage the energy. The main novelties of our approach is to provide an easy implemented and flexible solution to predict the consumption and the production at the building level based on the machine learning technique and tested on the real use cases in a residential and tertiary sector. A new evaluation of the consumption is realized: the point of view is energy and not only electrical. The energy consumption is decomposed between the heating consumption, the hot water consumption and the electrical devices consumption. A prediction every hour is provided for the heating and the hot water consumption to estimate the thermal storage capacity. A characterization of Electrical devices consumption is realized by a non-intrusive disaggregation from the global load curve. The heating and the hot water are identify to provide a non intrusive methodology of prediction. Every day, the heating, the hot water, the household appliances, the cooling and the stand by are identified. Every 15 minutes, our software provide a hot water prediction, a heating prediction, a decentralized prediction and a characterization of the electrical consumption. A comparison with the different physic model simulated enable an error evaluation the error of our different implemented model
Styles APA, Harvard, Vancouver, ISO, etc.
6

Leroy, Boris. « Utilisation des bases de données biodiversité pour la conservation des taxons d’invertébrés : indices de rareté des assemblages d’espèces et modèles de prédiction de répartition d’espèces ». Paris, Muséum national d'histoire naturelle, 2012. http://www.theses.fr/2012MNHN0033.

Texte intégral
Résumé :
Les invertébrés sont sous-représentés en biologie de la conservation. Pour améliorer leur prise en compte, nous avons cherché à proposer des principes et outils pour leur conservation. Nous avons analysé des bases de données biodiversité — définies comme compilant les occurrences des espèces dans l’espace et dans le temps — qui sont les seules sources de données existantes pour la plupart des taxa invertébrés. Nous avons appliqué les principes d’amélioration de la qualité des données et avons exploité une méthode permettant de quantifier la complétude des bases de données. Nous avons tout d’abord développé un nouvel outil à l’échelle des assemblages d’espèces, en utilisant des bases de données araignées et invertébrés marins : l’Indice de Rareté Relative. Cet indice intègre un paramètre flexible (le seuil de rareté) permettant un ajustement de l’indice quels que soient les taxons, les zones géographiques ou les échelles spatiales considérés. Nous l’avons ensuite amélioré en proposant d’intégrer plusieurs échelles spatiales ou plusieurs phylums pour évaluer la rareté des assemblages. Nous avons ensuite développé des outils à l’échelle spécifique, les modèles de prédiction de répartition. Sur l’exemple des araignées, nous avons proposé une application adaptée à la conservation, en permettant de définir (1) quelles priorités de conservation pour les espèces et (2) où mettre en place les mesures de protection les plus susceptibles de réussir. Les principes et méthodes que nous avons développés permettent une utilisation appropriée des bases de données biodiversité disponibles, peuvent s’appliquer à d’autres taxons d’invertébrés et constituent des outils novateurs pour les programmes de conservation à différentes échelles
Invertebrate taxa are underrepresented in conservation biology. To improve their inclusion, we aimed at providing principles and tools for their conservation. We analysed biodiversity database —defined as databases compiling species occurrences in space and time— which are the only sources of data for most invertebrate taxa. We applied important principles of data quality, and used a metric to quantify the completeness of biodiversity databases. We first developed a new tool at the assemblage level on the basis of databases of spiders and marine invertebrates: the Index of Relative Rarity. This index integrates a flexible parameter (the rarity cutoff) which allows fitting the index with respect to the considered taxon, geographic area and spatial scale. We then improved this index by including multiple scales or multiple phyla to assess the rarity of assemblages. We then developed tools at the species level: species distribution models. Using spiders as an example, we proposed an appropriate application for conservation purposes, to (1) define conservation priorities for species and (2) identify where conservation actions are most likely to succeed. The principles and methods that we developed allow an appropriate use of available biodiversity databases for conservation, are transferable to other invertebrate taxa and are innovative tools for conservation programs across multiple spatial scales
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bassard, David. « Méthodologie de prédiction et d’optimisation du potentiel méthane de mélanges complexes en co-digestion ». Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2175/document.

Texte intégral
Résumé :
La co-digestion anaérobie (CoDA) des substrats agro-industriels s’inscrit pleinement dans les objectifs sociétaux d’une gestion optimisée des agroressources, d’une réduction des impacts anthropogéniques, ainsi que d’un développement des énergies renouvelables. Toutefois, en considérant les verrous industriels et scientifiques, il est apparu que la problématique méthodologique, relative à l’étude et à l’optimisation, était primordiale dans l’amélioration des performances méthanogènes en CoDA. En cela, il s’est avéré que le principal actionneur pour l’optimisation de la CoDA soit la formulation du mélange en substrats et co-substrats constituant l’intrant du digesteur. Ainsi, les travaux de thèse étaient inscrits dans un double objectif, industriel et scientifique, dont les résultats ont permis de (i) mettre en œuvre des méthodes simples, peu chronophages et surtout peu coûteuses, pour la caractérisation des intrants et le suivi de la CoDA, (ii) déterminer la relation fondamentale entre la formulation du mélange de substrats et son potentiel biométhanogène, (iii) développer des outils de prédiction du potentiel biométhanogène des mélanges de substrats, ainsi que des biodégradabilités globales et spécifiques de ces derniers, (iv) améliorer la compréhension des interactions entre les substrats codigérés et le consortium microbien de digestion, ainsi que la capacité de ce dernier à s’adapter aux diverses charges organiques qui lui sont appliquées (capacité homéostasique)
The co-digestion of agro-industrial substrates in anaerobic conditions falls within the objectives of an optimized management of agricultural resources along with reduction of anthropogenic impacts and development of renewable energies. Considering scientific and industrial bottlenecks from literature review, it could be identified that a methodological approach was the key to an enhanced understanding of anaerobic co-digestion. Ultimately, formulation of the substrate and co-substrates (digestor’s inputs) appeared to be the main actuator to optimize anaerobic co-digestion. Conciliating both scientific and industrial issues, this thesis led to the following findings : (i) an implementation of simple and cost-saving methods to characterize the inputs of digestor and biogas production, (ii) a determination of fundamental relationship between substrate blend and his biomethane potential, (iii) a development of predictive tools for biomethane potential of substrate blends as well as global and specific biodegradability of substrates, (iv) an enhanced comprehension of first, interactions between codigested substrates and the microbial consortium and second, the adaptation capacity of the microbial consortium to various organic loading (homeostatic capacity)
Styles APA, Harvard, Vancouver, ISO, etc.
8

Monteil, Thierry. « Du cluster à la grille sous l'angle de la performance ». Habilitation à diriger des recherches, Institut National Polytechnique de Toulouse - INPT, 2010. http://tel.archives-ouvertes.fr/tel-00547021.

Texte intégral
Résumé :
Ce mémoire aborde différents travaux sur les couches logicielles nécessaires à l'utilisation d'une plate-forme distribuée pour mettre en place de nouveaux usages. Il sagit danalyser la performance au sens large que ce soit la performance d'exécution d'applications parallèles, de programmation parallèle, de consommation énergétique ou de coût financier. Les contributions concernent les outils et les algorithmes d'ordonnancement (qualité de service, impact du réseau, coût économique), la simulation fine des ressources informatiques ainsi que la gestion du cSur de réseau sous des contraintes de qualité de service et de consommation énergétique. Les environnements de programmation parallèle, la gestion de performance dans un environnement autonomique tout comme la gridification et l'analyse de codes applicatifs ont également été abordés.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Gbaguidi, Fréjus A. Roméo. « Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters ». Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163.

Texte intégral
Résumé :
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
Styles APA, Harvard, Vancouver, ISO, etc.
10

Gaudin, Théophile. « Développement de modèles QSPR pour la prédiction et la compréhension des propriétés amphiphiles des tensioactifs dérivés de sucre ». Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2318/document.

Texte intégral
Résumé :
Les tensioactifs dérivés de sucres représentent la principale famille de tensioactifs bio-sourcés et constituent de bons candidats pour substituer les tensioactifs dérivés du pétrole puisqu'ils sont issus de ressources renouvelables et peuvent être autant, voire plus performants dans diverses applications, comme la formulation (détergents, cosmétiques,…), la récupération assistée du pétrole ou des minéraux, etc. Différentes propriétés amphiphiles permettent de caractériser la performance des tensioactifs dans de telles applications, comme la concentration micellaire critique, la tension de surface à la concentration micellaire critique, l'efficience et le point de Krafft. Prédire ces propriétés serait bénéfique pour identifier plus rapidement les tensioactifs possédant les propriétés désirées. Les modèles QSPR sont des outils permettant de prédire de telles propriétés, mais aucun modèle QSPR fiable dédié à ces propriétés n'a été identifié pour les tensioactifs bio-sourcés, et en particulier les tensioactifs dérivés de sucres. Au cours de cette thèse, de tels modèles QSPR ont été développés. Une base de données fiables est nécessaire pour développer tout modèle QSPR. Concernant les tensioactifs dérivés de sucres, aucune base de données existante n'a été identifiée pour les propriétés ciblées. Cela a donné suite à la construction de la première base de données de propriétés amphiphiles de tensioactifs dérivés de sucres, qui est en cours de valorisation. L'analyse de cette base de données a mis en évidence différentes relations empiriques entre la structure de ces molécules et leurs propriétés amphiphiles, et permis d'isoler des jeux de données les plus fiables et au protocole le plus homogène possibles en vue du développement de modèles QSPR. Après établissement d'une stratégie robuste pour calculer les descripteurs moléculaires constituant les modèles QSPR, qui s'appuie notamment sur des analyses conformationnelles des tensioactifs dérivés de sucres et des descripteurs des têtes polaires et chaînes alkyles, différents modèles QSPR ont été développés, validés, et leur domaine d'applicabilité spécifié, pour la concentration micellaire critique, la tension de surface à la concentration micellaire critique, l'efficience et le point de Krafft. Pour les trois premières propriétés, des modèles quantitatifs performants ont pu être obtenus. Si les descripteurs quantiques ont apporté un gain prédictif important pour la tension de surface à la concentration micellaire critique, et un léger gain pour la concentration micellaire critique, aucun gain n'a été observé pour l'efficience. Pour ces trois propriétés, des modèles simples basés sur des descripteurs constitutionnels des parties hydrophile et hydrophobe de la molécule (comme des décomptes d'atomes) ont aussi été obtenus. Pour le point de Krafft, deux arbres de décision qualitatifs, classant la molécule comme soluble ou insoluble dans l'eau à température ambiante, ont été proposés. Les descripteurs quantiques ont ici aussi apporté un gain en prédictivité, même si un modèle relativement fiable basé sur des descripteurs constitutionnels des parties hydrophile et hydrophobe de la molécule a aussi été obtenu. Enfin, nous avons montré comment ces modèles QSPR peuvent être utilisés, pour prédire les propriétés de nouvelles molécules avant toute synthèse dans un contexte de screening, ou les propriétés manquantes de molécules existantes, et pour le design in silico de nouvelles molécules par combinaison de fragments
Sugar-based surfactants are the main family of bio-based surfactants and are good candidates as substitutes for petroleum-based surfactants, since they originate from renewable resources and can show as good as, or even better, performances in various applications, such as detergent and cosmetic formulation, enhanced oil or mineral recovery, etc. Different amphiphilic properties can characterize surfactant performance in such applications, like critical micelle concentration, surface tension at critical micelle concentration, efficiency and Kraft point. Predicting such properties would be beneficial to quickly identify surfactants that exhibit desired properties. QSPR models are tools to predict such properties, but no reliable QSPR model was identified for bio-based surfactants, and in particular sugar-based surfactants. During this thesis, such QSPR models were developed. A reliable database is required to develop any QSPR model. Regarding sugar-based surfactants, no database was identified for the targeted properties. This motivated the elaboration of the first database of amphiphilic properties of sugar-based surfactants. The analysis of this database highlighted various empirical relationships between the chemical structure of these molecules and their amphiphilic properties, and enabled to isolate the most reliable datasets with the most homogeneous possible protocol, to be used for the development of the QSPR models. After the development of a robust strategy to calculate molecular descriptors that constitute QSPR models, notably relying upon conformational analysis of sugar-based surfactants and descriptors calculated only for the polar heads and for the alkyl chains, different QSPR models were developed, validated, and their applicability domain defined, for the critical micelle concentration, the surface tension at critical micelle concentration, the efficiency and the Kraft point. For the three first properties, good quantitative models were obtained. If the quantum chemical descriptors brought a significant additional predictive power for the surface tension at critical micelle concentration, and a slight improvement for the critical micelle concentration, no gain was observed for efficiency. For these three properties, simple models based on constitutional descriptors of polar heads and alkyl chains of the molecule (like atomic counts) were also obtained. For the Krafft point, two qualitative decision trees, classifying the molecule as water soluble or insoluble at room temperature, were proposed. The use of quantum chemical descriptors brought an increase in predictive power for these decision trees, even if a quite reliable model only based on constitutional descriptors of polar heads and alkyl chains was also obtained. At last, we showed how these QSPR models can be used, to predict properties of new surfactants before synthesis in a context of computational screening, or missing properties of existing surfactants, and for the in silico design of new surfactants by combining different polar heads with different alkyl chain
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie