Auswahl der wissenschaftlichen Literatur zum Thema „Optimisation efficace“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Optimisation efficace" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Optimisation efficace":

1

Chouba, I., T. Arbaoui, L. Amodeo, F. Yalaoui, P. Blua, S. Sanchez und D. Laplanche. „Optimisation du service d’urgences à l’aide d’un modèle de simulation efficace“. Revue d'Épidémiologie et de Santé Publique 67 (März 2019): S86. http://dx.doi.org/10.1016/j.respe.2019.01.044.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Touil, Salah. „Optimisation du traitement physico-chimique des eaux d’encres“. Journal of Renewable Energies 20, Nr. 3 (30.09.2017): 415–22. http://dx.doi.org/10.54966/jreen.v20i3.637.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Les effluents d’encres doivent être traités avant rejet dans le milieu récepteur, le traitement physico-chimique est une technique de traitement efficace pour ces effluents. L’eau traitée respecte les normes marocaines de rejets, mais la forte consommation des réactifs lors du traitement est un point faible de cette technique. Dans cette étude, nous nous intéressons à l’optimisation du traitement physico-chimique par la combinaison des niveaux des facteurs susceptibles d’agir sur le traitement. Les réponses étudiées sont évidement la demande chimique en oxygène (DCO) et la turbidité. La méthode de conception expérimentale basée sur un modèle composite de 2ème ordre est employée. Les résultats obtenus ont permis de réaliser une réduction de la consommation du coagulant de 16.44 % et du floculant de 68.92 %.
3

Duclos-Prévet, Claire, François Guéna und Mariano Efron. „Algorithme génétique ou automate cellulaire : le cas d’une optimisation multicritère sous contraintes pour la conception d’une enveloppe“. SHS Web of Conferences 147 (2022): 09001. http://dx.doi.org/10.1051/shsconf/202214709001.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Il existe différentes méthodes génératives qui permettent une conception performancielle. Les algorithmes génétiques apparaissent comme la solution la plus populaire dans la littérature scientifique. Néanmoins, en pratique, les problèmes rencontrés nécessitent souvent une intégration de contraintes strictes que d’autres techniques génératives fonctionnant avec des règles, comme les automates cellulaires, sont plus aptes à intégrer. Dans cette étude, nous comparons l’efficacité de ces deux techniques appliquées à un même cas d’étude issu de la pratique professionnelle. Il s’agit de la conception d’une enveloppe pour une tour de bureaux à Madagascar qui intègre à la fois le confort thermique et la qualité de vue. Il ressort de cette expérience que l’approche la plus efficace est une méthode hybride qui utilise à la fois un automate cellulaire pour intégrer les contraintes, et un algorithme génétique conduisant l’optimisation multicritère.
4

Raissouni, Rajaa, M’hamed Hamiche, Salmane Bourekkadi und Kenza Raissouni. „Optimisation des performances opérationnelles de l’industrie automobile électrique marocaine grâce à une intégration efficace de la chaîne logistique“. SHS Web of Conferences 175 (2023): 01027. http://dx.doi.org/10.1051/shsconf/202317501027.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
L’importance des décisions relatives à l’intégration de la chaîne logistique dans la stratégie de l’industrie automobile électrique au Maroc est mise en évidence par cette étude. Des recherches révèlent que les entreprises les plus admirées et craintes aujourd’hui sont celles qui parviennent à établir des liens étroits entre leurs clients, leurs fournisseurs et leurs processus internes en utilisant des réseaux d’intégration. En se basant sur ces affirmations, notre étude se propose d’explorer la corrélation entre les différentes variables liées à la performance opérationnelle, telles que (les coûts, la qualité, la flexibilité), ainsi que les variables indépendantes d’intégration de la chaine logistique (intégration client, intégration fournisseur, intégration interne). Notre étude se concentre sur la causalité en analysant comment les trois dimensions de l’intégration affectent la performance opérationnelle des entreprises du secteur automobile électrique marocaine. Dans le cadre de cette étude, un échantillon composé de 2 entreprises a été sélectionné afin de recueillir des données empiriques. Ces données ont été collectées au moyen d’un questionnaire spécifiquement élaboré et amélioré grâce à des entretiens menés avec des experts et un comité de juges. Différentes techniques statistiques, telles que l’analyse descriptive, la corrélation et les régressions multiples, ont été employées pour cette étude. Notre étude a démontré que l’intégration client ont exercé l’impact le plus significatif sur la performance opérationnelle de la chaîne logistique du secteur automobile marocain. Les résultats empiriques ont révélé des corrélations et des interactions notables entre les trois dimensions de la chaine logistique intégrée, ainsi qu’entre ces dimensions et les différents aspects de la performance opérationnelle. Ainsi, les résultats ont confirmé l’opinion des acteurs de l’industrie automobile selon laquelle il existe un lien étroit entre la chaine logistique intégrée et sa performance opérationnelle.
5

Carrié, Cédric, Noémie Sauvage und Matthieu Biais. „Optimisation du traitement par β-Lactamines chez le patient de réanimation en hyperclairance rénale“. Médecine Intensive Réanimation 30, Nr. 2 (18.05.2021): 157–64. http://dx.doi.org/10.37051/mir-00059.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
L'optimisation du traitement par β-Lactamines représente toujours un défi complexe chez le patient de soins critiques, compte tenu de la large variabilité des concentrations d'antibiotiques en relation avec d’importantes interactions pharmacocinétiques et pharmacodynamiques (PK/PD). D’une part, il est communément admis que les patients présentant une insuffisance rénale justifient une diminution des posologies afin de limiter le risque de toxicité. D’autre part, certains patients peuvent également présenter une hyperclairance rénale (HCR), désormais reconnue comme un des principaux facteurs de risque de sous-dosage et d’échec thérapeutique des agents anti-infectieux à élimination urinaire. L’hyperclairance est une entité fréquente en réanimation chirurgicale, probablement sous-diagnostiquée en l’absence de mesure de clairance urinaire de la créatinine (CLCR). Pour certaines β-lactamines prescrites en probabiliste, plusieurs études de pharmacocinétique suggèrent une augmentation des posologies recommandées afin d’atteindre les objectifs PK/PD chez les patients atteints d'HCR. En cas d’impossibilité de monitorer les concentrations plasmatiques dans des délais brefs, l'optimisation des posologies de β-lactamines selon le monitorage quotidien de la CLCR est une stratégie sûre et efficace pour améliorer les taux de succès thérapeutique. L’HCR étant un phénomène fluctuant, cette stratégie impose un monitorage quotidien de la CLCR afin d’adapter les posologies et limiter le risque de surdosage.
6

CHEVALET, C., und D. BOICHARD. „Sélection assistée par marqueurs“. INRAE Productions Animales 5, HS (02.12.1992): 291–94. http://dx.doi.org/10.20870/productions-animales.1992.5.hs.4307.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
L’utilisation de marqueurs génétiques polymorphes en amélioration génétique des animaux est discutée dans deux situations : dans une population issue du croisement entre deux races bien différenciées, ou dans le cadre d’une sélection intra-familiale. En général, il y aurait peu de gain à espérer par rapport à la sélection sur performances pour des caractères d’héritabilité assez élevée et faciles à mesurer. En revanche cette forme de sélection semble indiquée dans les cas suivants : sélection précoce des candidats à la reproduction, optimisation de l’introgression d’un gène marqueur, contrôle de caractères faiblement héritables ou difficiles à mesurer. Dans le cas d’une sélection intra-familiale il semble que la combinaison d’une sélection sur performances avec une sélection sur marqueurs ne soit efficace que si un très petit nombre de marqueurs (un à trois) sont simultanément pris en compte. Dans tous les cas, les effectifs d’animaux à mesurer ou à typer demeurent du même ordre de grandeur que ceux nécessités par les contrôles sur performances habituels.
7

Bolte, Michele, und Michel Troquet. „Optimisation de la caracterisation de polymeres hydrosolubles par chromatographie a permeation de gel: Utilisation de plans d'experiences, une methode rapide et efficace“. European Polymer Journal 26, Nr. 2 (Januar 1990): 177–79. http://dx.doi.org/10.1016/0014-3057(90)90184-6.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

GUEGUEN, N., L. LEFAUCHEUR und P. HERPIN. „Relations entre fonctionnement mitochondrial et types contractiles des fibres musculaires“. INRAE Productions Animales 19, Nr. 4 (13.09.2006): 265–78. http://dx.doi.org/10.20870/productions-animales.2006.19.4.3494.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Le muscle, tissu d’importance économique majeure chez les animaux producteurs de viande, est un tissu composite comprenant en majeure partie des fibres musculaires qui constituent une population très hétérogène aux caractéristiques contractiles et métaboliques variées. Les relations entre type contractile des fibres et fonctionnement mitochondrial, un composant essentiel du métabolisme énergétique musculaire, restent mal connues. Leur compréhension est pourtant essentielle pour espérer mieux maîtriser l’impact du type de fibres sur les diverses composantes de la qualité de la viande. Une analyse fine de la composante mitochondriale du fonctionnement énergétique des fi-bres a donc été entreprise en relation avec leurs caractéristiques contractiles. Les résultats indiquent que, contrairement aux fibres rapides de types IIX et IIB, la régulation mitochondriale dans les fibres lentes de type I et, dans une moindre mesure, de type rapide IIA est hautement spécialisée avec une optimisation de l’efficacité des mitochondries (couplage entre oxydation et phosphorylation, capacité oxydative maximale), une restriction de leur perméabilité à l’ADP et un couplage fonctionnel entre les kinases mitochondriales et la production d’ATP, permettant un transfert efficace de l’énergie vers les myosines. De plus, la régulation mitochondriale et les transferts énergétiques sont modulés par l’activation calcium-dépendante des ATPases portées par les myosines.
9

Ie, Kenya, Masanori Hirose, Tsubasa Sakai, Iori Motohashi, Mari Aihara, Takuya Otsuki, Ayako Tsuboya et al. „Protocol of a randomised controlled trial on the efficacy of medication optimisation in elderly inpatients: medication optimisation protocol efficacy for geriatric inpatients (MPEG) trial“. BMJ Open 10, Nr. 10 (Oktober 2020): e041125. http://dx.doi.org/10.1136/bmjopen-2020-041125.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
IntroductionWhether medication optimisation improves clinical outcomes in elderly individuals remains unclear. The current study aims to evaluate the effect of multidisciplinary team-based medication optimisation on survival, rehospitalisation and unscheduled hospital visits in elderly patients.Methods and analysisWe report the protocol of a single-centre, open-label, randomised controlled trial. The enrolled subjects will be medical inpatients, aged 65 years or older, admitted to a community hospital and receiving five or more regular medications. The participants will be randomly assigned to receive either an intervention for medication optimisation or the usual care. The intervention will consist of a multidisciplinary team-based medication review, followed by a medication optimisation proposal based on the Screening Tool of Older Persons’ potentially inappropriate Prescriptions/Screening Tool to Alert doctors to the Right Treatment criteria and an implicit medication optimisation protocol. Medication optimisation summaries will be sent to primary care physicians and community pharmacists on discharge. The primary outcome will be a composite of death, unscheduled hospital visits and rehospitalisation until 48 weeks after randomisation. Secondary outcomes will include each of the primary endpoints, the number of prescribed medications, quality of life score, level of long-term care required, drug-related adverse events, death during hospitalisation and falls. Participants will be followed up for 48 weeks with bimonthly telephone interviews to assess the primary and secondary outcomes. A log-rank test stratified by randomisation factors will be used to compare the incidence of the composite endpoint. The study was initiated in 2019 and a minimum of 500 patients will be enrolled.Ethics and disseminationThe study protocol has been approved by the Institutional Ethical Committee of St. Marianna University School of Medicine (No. 4129). The results of the current study will be submitted to a peer-reviewed journal.Trial registration numberUMIN000035265
10

Frederick Uzoma Etumnu, Ipeghan Jonathan Otaraku, Matthew Idemudia Ehikhamenle und Bourdillon Odianonsen Omijeh. „Optimisation of liquefied natural gas production: genetic algorithm and custom-developed method“. Global Journal of Engineering and Technology Advances 17, Nr. 2 (30.11.2023): 031–39. http://dx.doi.org/10.30574/gjeta.2023.17.2.0223.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
This study comprehensively analyses various optimisation techniques applied to Liquefied Natural Gas (LNG) production. Two datasets were used to assess the performance of these techniques, with a focus on improving LNG output. The results revealed that the genetic algorithm exhibited the highest average percentage improvement in the first dataset, achieving a 12% optimisation, followed closely by a custom-developed optimisation method at 11%. Bayesian optimisation showed an average of 4%, while gradient descent demonstrated the lowest optimisation with -2%. Notably, the second dataset displayed even more significant improvements, with the custom optimisation algorithm leading at an average of 32%, surpassing the genetic optimization method's 30%. This study underscores the efficacy of the custom algorithm and its potential for enhancing LNG production, positioning it as a promising alternative to traditional optimisation approaches.

Dissertationen zum Thema "Optimisation efficace":

1

Hamdar, Marian. „Conception et optimisation d'un système indirect efficace de climatisation ferroviaire“. Paris, ENMP, 2008. http://www.theses.fr/2008ENMP1693.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Davot, Tom. „A la recherche de l’échafaudage parfait : efficace, de qualité et garanti“. Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS030.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Le séquençage est un processus en biologie qui permet de déterminer l'ordre des nucléotides au sein de la molécule d'ADN. Le séquençage produit un ensemble de fragments, appelés lectures, dans lesquels l'information génétique est connue. Seulement, la séquence génomique n'est connue que de façon parcellaire, pour pouvoir faire son analyse, il convient alors de la reconstituer à l'aide d'un certain nombre de traitements informatiques. Dans cette thèse, nous avons étudié deux problèmes mathématiques issus de ce séquençage : l'échafaudage et la linéarisation.L'échafaudage est un processus qui intervient après l'assemblage des lectures en contigs. Il consiste en la recherche de chemins et de cycles dans un graphe particulier appelé graphe d'échafaudage. Ces chemins et cycles représentent les chromosomes linéaires et circulaires de l'organisme dont l'ADN a été séquencée. La linéarisation est un problème annexe à l'échafaudage : quand on prend en compte le fait que les contigs puissent apparaitre plusieurs fois dans la séquence génomique, des ambiguïtés surviennent dans le calcul d'une solution. Celles-ci, si elles ne sont pas traitées, peuvent entrainer la production d'une séquence chimérique lors de l'échafaudage. Pour résoudre ce problème, il convient alors de dégrader de façon parcimonieuse une solution calculée par l'échafaudage. Dans tous les cas, ces deux problèmes peuvent être modélisés comme des problèmes d'optimisation dans un graphe.Dans ce document, nous ferons l'étude de ces deux problèmes en se concentrant sur trois axes. Le premier axe consiste à classifier ces problèmes au sens de la complexité. Le deuxième axe porte sur le développement d'algorithmes, exacts ou approchés, pour résoudre ces problèmes. Enfin, le dernier axe consiste à implémenter et tester ces algorithmes pour observer leurs comportements sur des instances réelles
Sequencing is a process in biology that determines the order of nucleotides in the DNA. It produces a set of fragments, called reads, in which the genetic information is known. Unfortunatly, the genomic sequence is decomposed in small pieces. In order to analyse it, it is necessary to reconstruct it using a number of computer processes. In this thesis, we studied two mathematical problems arising from this sequencing: the scaffolding and the linearization.The scaffolding is a process that takes place after the reads assembly into larger subsequences called contigs. It consists in the search of paths and cycles in a particular graph called scaffold graph. These paths and cycles represent the linear and circular chromosomes of the organism whose DNA has been sequenced. The linearization is a problem related to the scaffolding. When we take into account that contigs may appear several times in the genomic sequence, some ambiguities can arise. If this ambiguities are not deleted, then a chimeric sequence may be produced by the scaffolding. To solve this problem, a solution computed by the scaffolding should be wisely deteriorated. In any case, both problems can be modelized as optimization problems in a graph.In this document, we study both problems focusing on three aspects. The first aspect consists in the study of the complexity of these problems. The second aspect consists in the development of algorithms, exact or approximate, to solve these problems. Finally, the last aspect consists in implementing and testing these algorithms to look at their behaviors on real instances
3

Tap, Samuel. „Construction de nouveaux outils de chiffrement homomorphe efficace“. Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS103.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Dans notre vie de tous les jours, nous produisons une multitude de données à chaque fois que nous accédons à un service en ligne. Certaines sont partagées volontairement et d'autres à contrecœur. Ces données sont collectées et analysées en clair, ce qui menace la vie privée de l'utilisateur et empêche la collaboration entre entités travaillant sur des données sensibles. Le chiffrement complètement homomorphe (Fully Homomorphic Encryption) apporte une lueur d'espoir en permettant d'effectuer des calculs sur des données chiffrées ce qui permet de les analyser et de les exploiter sans jamais y accéder en clair. Cette thèse se focalise sur TFHE, un récent schéma complètement homomorphe capable de réaliser un bootstrapping en un temps record. Dans celle-ci, nous introduisons une méthode d'optimisation pour sélectionner les degrés de liberté inhérents aux calculs homomorphiques permettant aux profanes d'utiliser TFHE. Nous détaillons une multitude de nouveaux algorithmes homomorphes qui améliorent l'efficacité de TFHE et réduisent voire éliminent les restrictions d'algorithmes connus. Une implémentation efficace de ceux-ci est d'ores et déjà en accès libre
In our everyday life, we leave a trail of data whenever we access online services. Some are given voluntarily and others reluctantly. Those data are collected and analyzed in the clear which leads to major threats on the user's privacy and prevents collaborations between entities working on sensitive data. In this context, Fully Homomorphic Encryption brings a new hope by enabling computation over encrypted data, which removes the need to access data in the clear to analyze and exploit it. This thesis focuses on TFHE, a recent fully homomorphic encryption scheme able to compute a bootstrapping in record time. We introduce an optimization framework to set the degrees of freedom inherent to homomorphic computations which gives non-experts the ability to use it (more) easily. We describe a plethora of new FHE algorithms which improve significantly the state of the art and limit, (if not remove) existing restrictions. Efficient open source implementations are already accessible
4

Potop-Butucaru, Dumitru. „Optimisations pour la simulation efficace de programmes Esterel“. Paris, ENMP, 2002. http://www.theses.fr/2002ENMP0002.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Esterel est un langage de spécification utilisé dans le développement de systèmes embarqués. Sa sémantique formelle permet des traductions en automates explicites ou en circuits digitaux synchrones, donnant lieu à deux implantations logicielles dont les propriétés essentielles sont héritées du modèle correspondant. Ces méthodes de compilation sont donc sémantiquement complètes, mais en contrepartie n’arrivent pas à générer du code efficace (à la fois compact et rapide) pour des modèles de taille conséquente. Pour cette raison, de nouvelles techniques ont été proposées récemment pour la génération de code C efficace, consistant essentiellement dans la simulation directe des opérations réactives du programme Esterel. Ces nouvelles techniques doivent être conciliées maintenant avec les aspects spécifiques à la sémantique d’Esterel qui sont la causalité constructive et la cyclicité. Elles doivent aussi être munies de techniques adaptées d’analyse et d’optimisation. Pour atteindre ces objectifs, nous proposons une nouvelle technique de compilation dont la puissance découle de l’utilisation d’un nouveau format intermédiaire, nommé GRC. La représentation GRC d’un programme Esterel se compose d’une représentation de l’état hiérarchique du programme et d’un graphe déstructuré de flot de contrôle. Les deux composants, séparés au niveau syntaxique, sont sémantiquement interdépendants. Le nouveau format permet la représentation de tout programme Esterel. Il est un bon support pour des algorithmes d’optimisation efficaces à ce niveau et pour des algorithmes d’implantation (ordonnancement et encodage) efficaces. Notre travail apporte les contributions suivantes : - une définition précise de la sémantique du langage Esterel avec données ; - la définition du format GRC et de la correspondance formelle entre le code GRC et les circuits générés à partir d’Esterel ; - la caractérisation, au niveau du code GRC, de la classe de programmes Esterel générant des circuits cycliques ; - le développement d’un compilateur Esterel-C qui utilise GRC comme unique format intermédiaire. Le prototype traite actuellement les programmes Esterel dont la représentation GRC est acyclique. Le code C est obtenu dans ces cas par une planification statique du graphe de flot de contrôle GRC. Le compilateur implémente un bon nombre de techniques d’optimisation, en partie originales. Une comparaison entre notre prototype et les autres compilateurs montre l’intérêt de l’approche
Esterel is a design language for reactive embedded systems. It enjoys a full-fledged formal operational semantics, and can customarily be compiled into either explicit Finite State Machines or Digital Sequential Circuit models, thereby providing implementation codes with very distinctive flavors. While being semantically complete, the model-based techniques do not support the generation of efficient (fast and small) code for large specifications. For this reason, new compilation schemes were proposed for the generation of efficient sequential ( C) code. Consisting essentially in direct actual simulation of the language reactive features, the new approach now needs to be accommodated with similar semantic issues as the previous ones (FSM- and circuit-based). Such issues include dealing with the whole class of constructively causal programs, or performing optimization and analysis of this level. To this end, we propose here a new format/model (named GRC) for the intermediate representation of Esterel programs. The new format has formal constructive semantics, being able to represent all the Esterel programs. It describes with separate (but interdependent) structures the hierarchic state of the Esterel program and its destructured control flow. Thus, it is a good support for both (1) efficient low-cost optimizations based on static analysis that use high-level structural information and (2) low-level control flow optimizations. Finally, the format is a good starting point for efficient scheduling algorithms. Our contribution consists in the following : - The precise definition of the semantics of the full Esterel language ; - The definition of the GRC format (including the formal correspondence between its semantics and the “circuit” semantics) ; - A characterization, at GRC level, of the programs that are translated into cyclic circuits ; - The development of an optimizing GRC-based prototype C code generator. The prototype is currently able to compile the programs whose GRC representation is acyclic. Sequential code is generated in these cases by statically scheduling the acyclic GRC flowgraph. The compiler includes novel optimization algorithms, based on static analysis, and an efficient state encoding technique. The results are encouraging, as our prototype seems to compare well against existing compilers
5

Hasan, Cengis. „Optimisation de l'allocation de ressources dans les réseaux celluaires : une approche efficace en énergie“. Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00942967.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Le terme "réseau vert" ou pour éviter une traduction directe, "réseau propre" repose sur la sélection de technologies et de produits réseaux économes en énergie, et grantissant un usage minimal des ressources (radio, bande passante,...) quand cela est possible. Cette thèse vise à étudier les problèmes d'allocation des ressources dans les petits réseaux de cellules dans un contexte de réseau propre. Nous développons des algorithmes pour différents paradigmes. Nos travaux reposent principalement sur le contexte de la théorie des jeux de coalition, mais également sur des outils de géométrie stochastique ainsi que d'un modèle de jeu de surpeuplement. Nous étudions tout d'abord le problème d'association de mobiles à des stations de base dans les applications de diffusion d'un flux commun, sous contrainte de minimisation de la consommation d'énergie totale: nos algorithmes suivent une approche préservant l'énergie. Nous examinons le problème d'association des mobiles sous le prisme des jeux de coalition. Ce jeu tend à former la grande coalition, qui se caractérise par le fait que tous les joueurs forment une coalition unique. En utilisant le théorème de Bondareva-Shapley, nous prouvons que ce jeu de coalition a un noyau non vide ce qui signifie que la grande coalition est stable. Ensuite, nous examinons la politique de répartition des coûts pour différentes méthodes. Dans une deuxième partie, nous analysons un problème important dans les réseaux propres qui consiste à étteindre les stations de base qui ne sont pas indispensables. Nous abordons ce problème de facon statistique, dans le cas de fournisseurs de services coopérant au moyen d'outils de jeux de coalition vus sous un angle de la géométrie stochastique. Le jeu coalitionnel considéré est joué par les fournisseurs de services qui collaborent à éteindre leurs stations de base. Nous avons analysé la stabilité de Nash qui est un concept utilisé pour les jeux de coalition hédoniques. Nous posons la question suivante: Existe-t-il une méthode de répartition de la fonction d'utilitè qui se traduit par un partitionnement Nash-stable? Nous répondons à cette question dans la thèse. Nous démontrons que le noyau Nash-stable, défini comme l'ensemble des méthodes de répartition des couts conduisant à un partitionnement stable au sens de la stabilité de Nash. Nous considérons finalement les jeux liés à l'association des mobiles à un point d'accès non plus dans le cas d'un broadcast, mais dans le cas général. Le jeu consiste à décider à quel point d'accès un mobile doit se connecter. Nous considérons le choix entre deux points d'accès ou plus. Les décisions d'association dépendent du nombre de mobiles connectés à chacun des points d'accès. Nous obtenons de nouveaux résultats en utilisant des outils élémen taires de jeux de congestion et déviction. Enfin, nous nous intéressons aux transmissions coopératives. Nous étudions le problème de la sélection de partenaires dans le cas de constitution de binomes gagnant-gagnant, ou chacun des partenaire s'appuie sur l'autre pour sa propre transmission. Nous proposons d'assimiler la sélection des partenaires au problème classique en théorie des jeux de recherche stable de colocataire où chaque joueur établi une liste de préférence parmi les partenaires possibles; Nous adaptons l'algorithme de Irving pour déterminer le partenaire de chaque joueur et nous introduisons une version décentralisée de l'algorithme de Irving.
6

Gougeon, Adrien. „Optimisation d’un réseau dynamique et efficace en énergie servant à piloter la grille électrique“. Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. https://tel.archives-ouvertes.fr/tel-04086397.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Face aux défis concernant les secteurs de l’énergie et de l’environnement, le réseau électrique est confronté à certaines limites.Un problème majeur du réseau électrique actuel est le manque de communication et de coordination entre ses acteurs pour exploiter pleinement son potentiel. Pour surmonter ces limites et offrir de nouveaux services aux acteurs du réseau électrique, nous nous dirigeons vers un réseau plus intelligent, la Smart Grid. Le déploiement d’une infrastructure supplémentaire est nécessaire pour réaliser cette transition. Cette infrastructure, Advanced Metering Infrastructure (AMI), vise à améliorer les capacités de surveillance et de communication des acteurs du réseau électrique.L’objectif de cette thèse est de quantifier la dégradation de performance de certains nouveaux services de la Smart Grid, due à la qualité de service de l’AMI. Nous explorons plusieurs paramètres de l’infrastructure de communication et observons par co-simulation comment ces paramètres influencent l’efficacité de ces services. Un des objectifs principaux de la Smart Grid est aussi de réduire la consommation d’énergie.Dans un deuxième temps, nous modélisons la consommation énergétique de bout en bout de l’AMI afin d’évaluer sa propre consommation.Les outils de co-simulation proposés ainsi que les modèles de consommation sont tous disponibles sans restrictions
In front of the challenges concerning the energy and environmental sectors, the electrical grid faces some limitations. A major issue of the current power network is the lack of communication and coordination between its actors to fully exploit its potential.To overcome those limitations, and offer new services to the actors of the electrical grid, we are moving toward the Smart Grid. The deployment of an additional infrastructure is necessary to enable the Smart Grid. This infrastructure, known as the Advanced Metering Infrastructure (AMI), aims to enhance the monitoring and communication capabilities of the actors of the electrical grid.The goal of this thesis is to quantify the performance degradation of some new services of the Smart Grid, due to the quality of service of the AMI. We explore several parameters of the communication infrastructure and observe through co-simulation how those parameters influence the efficiency of those services. One of the main objectives of the Smart Grid is to reduce energy consumption.In a second stage, we model the end-to-end energy consumption of an AMI at a large scale to assess its own consumption.The proposed co-simulation framework and consumption models are all license free
7

Villemonteix, Julien. „Optimisation de fonctions coûteusesModèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle“. Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00351406.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Cette thèse traite d'une question centrale dans de nombreux problèmes d'optimisation, en particulier
en ingénierie. Comment optimiser une fonction lorsque le nombre d'évaluations autorisé est très limité au regard de la dimension et de la complexité du problème ? Par exemple, lorsque le budget d'évaluations est limité par la durée des simulations numériques du système à optimiser, il n'est pas rare de devoir optimiser trente paramètres avec moins
de cent évaluations. Ce travail traite d'algorithmes d'optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées.
Le principe commun aux méthodes proposées est d'exploiter les propriétés des processus gaussiens et du krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser. Ce choix est dicté par un critère d'échantillonnage qui combine recherche locale, à proximité des résultats prometteurs, et recherche globale, dans les zones non explorées. La plupart des critères proposés dans la littérature, tel celui de l'algorithme EGO (pour Efficient Global Optimization), cherchent à échantillonner la fonction là où l'apparition d'un optimum est jugée la plus probable. En comparaison, l'algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de nos travaux, cherche à maximiser la quantité d'information apportée, sur la position de l'optimum, par l'évaluation réalisée. Des problématiques industrielles ont guidé l'organisation de ce mémoire, qui se destine à la communauté de l'optimisation
tout comme aux praticiens confrontés à des fonctions à l'évaluation coûteuse. Aussi les applications industrielles y tiennent-elles une place importante tout comme la mise en place de l'algorithme IAGO. Nous détaillons non seulement le cas standard de l'optimisation d'une fonction réelle, mais aussi la prise en compte de contraintes, de
bruit sur les résultats des évaluations, de résultats d'évaluation du gradient, de problèmes multi-objectifs, ou encore d'incertitudes de fabrication significatives.
8

Mezmaz, Mohand. „Une approche efficace pour le passage sur grilles de calcul de méthodes d'optimisation combinatoire“. Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Mezmaz.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
La résolution exacte de problèmes d'optimisation combinatoire de grande taille constitue un défi pour les grilles. En effet, il est nécessaire de repenser les algorithmes de résolution pour prendre en compte les caractéristiques de tels environnements. Notamment leur grande échelle. L'hétérogénéité et la disponibilité dynamique de leurs ressources. Et leur nature multi-domaine d'administration. Dans cette thèse, nous avons proposé une nouvelle approche de passage sur grilles des méthodes exactes de type Branch-and-Bound appelée B&B@Grid. Cette approche est basée sur un codage des unités de travail sous forme d'intervalles permettant de minimiser le coût des communications induites par les opérations de régulation de charge, de tolérance aux pannes et de détection de la terminaison. Cette approche. Environ 100 fois plus performante en terme de coût de communication que la meilleure approche connue. A permis la résolution optimale sur la grille nationale Grid5000 d'une instance standard du problème du Flow-Shop restée non résolue depuis une quinzaine d'années. Pour accélérer la résolution. Nous avons également étudié la coopération sur la grille de la méthode exacte avec une méta-heuristique parallèle hybride. Deux modes de coopération ont été considérés : le mode relais où la méta-heuristique est exécutée avant la méthode exacte, le mode co-évolutionnaire où les deux méthodes sont exécutées en parallèle. La mise en oeuvre d'une telle coopération sur la grille nous a amené il proposer une extension du modèle de coopération Linda
The exact resolution of large combinatorial optimization problems is a challenge for grids. Indeed, it is necessary to rethink the resolution algorithms to take into account the characteristics of such environments, in particular their large-scale, the heterogeneity and the dynamic availability of their resources, and their multi-domain administration. Ln this thesis, we propose a new approach, called B&B@Grid, to adapt exact methods for grids. This approach is based on coding work units in the form of intervals in order to minimize the cost of communications caused by the operations of load balancing, fault tolerance and detection of termination. This approach, about 100 times more efficient than the best known approach in term of communication cost, led to the optimal resolution on the Grid5000 of a standard instance of the Flow-Shop problem remained unsolved for fifteen years. To accelerate the resolution, we also deal with cooperation on the grid of exact methods with meta-heuristics. Two cooperation modes have been considered: the relay mode where a meta-heuristic is performed before an exact method, and the co-evolutionary mode where both methods are executed in parallel. The implementation of this cooperation on a grid has led us to propose an extension of the Linda coordination model
9

Griset, Rodolphe. „Méthodes pour la résolution efficace de très grands problèmes combinatoires stochastiques : application à un problème industriel d'EDF“. Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0219/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Cette thèse s'intéresse à la résolution de très grands problèmes d'optimisation combinatoire stochastique. Les recherches sont appliquées au problème de planification des arrêts pour rechargement des centrales nucléaires. Compte-tenu de la part prépondérante de celles-ci dans le mix-électrique, ce problème structure fortement la chaîne de management d’énergie d'EDF. Une première partie propose une formulation étendue bi-niveau dans laquelle les décisions de premier niveau fixent les plannings d’arrêt et des profils de production des centrales, et celles de second niveau évaluent le coût de satisfaction de la demande associé. Cette formulation permet la résolution à l'optimum d'instances industrielles déterministes par un solveur en PLNE. Dans le cas stochastique, une telle résolution directe du problème n'est plus possible. Nous proposons une formulation permettant d’en résoudre la relaxation linéaire par génération de colonnes et de coupes, correspondant respectivement aux reformulations de Danzig-Wolfe du premier niveau et de Benders du second. Une phase heuristique permet ensuite de déterminer des solutions entières de bonne qualité pour des instances, jusqu'à une cinquantaine de scénarios représentatifs de l’incertitude sur les données. L’apport de l’approche est estimé en utilisant les outils industriels exploités par EDF pour évaluer les plannings. Une seconde partie porte sur l'intégration de méthodes d'optimisation robuste pour la prise en compte d’aléas sur la disponibilité des centrales. Nous nous plaçons dans un cadre où les recours possibles sur les dates d'arrêts ne sont pas exercés. Nous comparons des méthodes bi-objectif et probabiliste permettant de rendre le planning robuste pour les contraintes opérationnelles dont la relaxation est envisageable. Pour les autres, nous proposons une méthode basée sur un budget d’incertitude. Cette méthode permet de renforcer la stabilité du planning en limitant les besoins de réorganisation futurs. La prise en compte d’une loi de probabilité de l’aléa permet d’affiner le contrôle du prix de cette robustesse
The purpose of this Ph.D. thesis is to study optimization techniques for large-scale stochastic combinatorial problems. We apply those techniques to the problem of scheduling EDF nuclear power plant maintenance outages, which is of significant importance due to the major part of the nuclear energy in the French electricity system. We build on a two-stages extended formulation, the first level of which fixes nuclear outage dates and production profiles for nuclear plants, while the second evaluates the cost to meet the demand. This formulation enables the solving of deterministic industrial instances to optimality, by using a MIP solver. However, the computational time increases significantly with the number of scenarios. Hence, we resort to a procedure combining column generation of a Dantzig-Wolfe decomposition with Benders’ cut generation, to account for the linear relaxation of stochastic instances. We then obtain integer solutions of good quality via a heuristic, up to fifty scenarios. We further assume that outage durations are uncertain and that unexpected shutdowns of plants may occur. We investigate robust optimization methods in this context while ignoring possible recourse on power plants outage dates. We report on several approaches, which use bi-objective or probabilistic methods, to ensure the satisfaction of constraints which might be relaxed in the operating process. For other constraints, we apply a budget uncertainty-based approach to limit future re-organizations of the scheduling. Adding probabilistic information leads to better control of the price of the robustness
10

Tran, Khanh Toan. „Déploiement efficace de services complexes dans l'infrastructure de cloud“. Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00875818.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Le but du travail réalisé dans cette thèse est de fournir aux fournisseurs de services une solution qui est capable de non seulement déployer les services dans le cloud de façon économique, automatique, mais aussi à grande échelle. La première contribution traite le problème de la construction d'un nouveau service demandé par le client à partir de services disponibles dans le cloud de manière à satisfaire les exigences en termes de qualité de service ainsi qu'en termes de coût. Nous présentons ce problème par un modèle analytique et proposons un algorithme heuristique dont la performance est améliorée de 20-30% par rapport aux autres approches. La seconde contribution est une solution pour déployer les services dans le cloud en considérant les demandes des utilisateurs finaux. Pour assurer qualité de services dans une grande échelle, le service demandé est dupliqué et distribué dans le réseau; chacun de ses réplicas servira les utilisateurs à proximité. Le plan d'approvisionnement selon lequel le service est dupliqué dépend de sa demande, ce qui ne cesse pas de changer en quantité ainsi qu'en distribution, ce qui rend le problème plus compliqué. Nous proposons une solution qui est capable de s'adapter aux changements dans le réseau, y compris ceux des demandes de ses utilisateurs. Enfin, nous proposons un système basé sur OpenStack qui permet de déployer les services complexes dans un cloud qui couvre différente locations (cloud multi-site). A partir d'une demande du client, le système automatiquement calcule le plan d'approvisionnement optimal et le déploie en respectant les contraintes du client.

Buchteile zum Thema "Optimisation efficace":

1

Anbu, Deepika, Alistair Robson, Octavia Kurn, Charles Taylor, Oliver Dean, December Payne, Eva Nagy, Charlotte Harrison, Samuel Hall und Scott Border. „Evaluating the Efficacy and Optimisation of the Peer-Led Flipped Model Using TEL Resources Within Neuroanatomy“. In Advances in Experimental Medicine and Biology, 1–22. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-76951-2_1.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Arzmi, Mohd Hafiz, Anwar P. P. Abdul Majeed, Rabiu Muazu Musa, Mohd Azraai Mohd Razman, Hong-Seng Gan, Ismail Mohd Khairuddin und Ahmad Fakhri Ab. Nasir. „The Classification of Breast Cancer: The Effect of Hyperparameter Optimisation Towards the Efficacy of Feature-Based Transfer Learning Pipeline“. In Deep Learning in Cancer Diagnostics, 15–19. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-19-8937-7_3.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Głowala, Agnieszka. „Diagnoza dziecka w kontekście przekraczania progu szkolnego“. In Nauczyciel wczesnej edukacji. Oczekiwania społeczne i praktyka edukacyjna. Wydawnictwo Uniwersytetu Łódzkiego, 2011. http://dx.doi.org/10.18778/7525-559-1.09.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
The entrance of a child in the role of a pupil from the first class means a radical change of a child's life situation and the necessity of adaptation oneself to the new conditions. A teacher creates an active adaptation to the new changes and he claims that a model of education is based on honest diagnosis of a child. A contemporary approach to diagnosis can be defined as holistic and dynamic. The whole diagnosis (holistic) is always formulated in environmental context. Through the diagnosis we can understand a process of active search and data processing which can be used to determine activities that contribute to change of the current condition. The appropriate holistic diagnosis requires efficacious selection of methods of diagnostic proceedings and it is possible when a teacher has a solid knowledge. The holistic diagnosis fulfils three fundamental functions: recognition, explanation and optimisation, that contributes to appropriate organising of the educational process, and it also determines efficacy and effectiveness of the undertaken work.
4

Voutharoja, Bhanu Prakash, Lei Wang und Luping Zhou. „Automatic Radiology Report Generation by Learning with Increasingly Hard Negatives“. In Frontiers in Artificial Intelligence and Applications. IOS Press, 2023. http://dx.doi.org/10.3233/faia230545.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Automatic radiology report generation is challenging as medical images or reports are usually similar to each other due to the common content of anatomy. This makes a model hard to capture the uniqueness of individual images and is prone to producing undesired generic or mismatched reports. This situation calls for learning more discriminative features that could capture even fine-grained mismatches between images and reports. To achieve this, this paper proposes a novel framework to learn discriminative image and report features by distinguishing them from their closest peers, i.e., hard negatives. Especially, to attain more discriminative features, we gradually raise the difficulty of such a learning task by creating increasingly hard negative reports for each image in the feature space during training, respectively. By treating the increasingly hard negatives as auxiliary variables, we formulate this process as a min-max alternating optimisation problem. At each iteration, conditioned on a given set of hard negative reports, image and report features are learned as usual by minimising the loss functions related to report generation. After that, a new set of harder negative reports will be created by maximising a loss reflecting image-report alignment. By solving this optimisation, we attain a model that can generate more specific and accurate reports. It is noteworthy that our framework enhances discriminative feature learning without introducing extra network weights. Also, in contrast to the existing way of generating hard negatives, our framework extends beyond the granularity of the dataset by generating harder samples out of the training set. Experimental study on benchmark datasets verifies the efficacy of our framework and shows that it can serve as a plug-in to readily improve existing medical report generation models. The code is publicly available at https://github.com/Bhanu068/ITHN.
5

„Maintenance modelling and optimisation Chemical process industry A hierarchical framework for the measurement of maintenance efficacy and efficiency using performance indicators“. In Safety and Reliability: Methodology and Applications, 1145–54. CRC Press, 2014. http://dx.doi.org/10.1201/b17399-159.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Optimisation efficace":

1

Varma, Nakul, Sujit Jadhav, Kumar Manish, Ravi Chandak, Avdesh Negi, Ajay Jha und Avinash Bohra. „Horizontal Sucker Rod Pumping Wells – Novel Unconventional Dyna Card Signatures Interpretation for Pump & Rod Run-life Optimisation“. In Asia Pacific Unconventional Resources Symposium. SPE, 2023. http://dx.doi.org/10.2118/217279-ms.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Abstract This paper presents a comprehensive and pioneering analysis, exploring the hitherto uncharted terrain of newly discovered dyna-card signatures and learnings associated with their analysis. These signatures, emblematic of an intricate interplay between high-deviation, azimuth, Dog-Leg Severity, and rod-guide application in horizontal-well configurations, constitute a novel dimension in the pursuit of optimizing pump and sucker-rod run-life. The emergence of these distinct dyna-card signatures unveils a paradigm shift, transcending the boundaries of convention by redefining the landscape of artificial lift systems. These signatures, while intricately linked to the complex conditions of horizontal-well operations, are conspicuously absent from the annals of existing literature. So, this paper will fill the gaps of theory & literature. By methodically delving into the core of these unconventional signatures, this paper embarks on an intellectual journey that transcends the known boundaries of understanding. This journey traverses through a comprehensive examination of not only the novel dyna-card signatures but also a spectrum of both rare and common dyna-card signatures. The outcome of this analytical odyssey is a revelation of strategies that cast light on the path to bolstering the longevity and efficacy of rod-string and pump performance. These novel & unconventional dyna-card signatures are connected with the challenges posed by elevated wear rates of rod-couplings and rod-guides, particularly where they interface with the tubing-wall, the paper introduces an arsenal of specialized rod-string designs to overcome these problems identified by the specialized dyna-card signatures. These designs, forged at the intersection of innovation and necessity, stand as a testament to the commitment to harnessing newfound knowledge in a practical manner.
2

Manoj, M., R. G. Burela, D. Dzhurinskiy, A. Babu, A. Gupta und D. Harursampath. „Thermo-Mechanical Finite Element Analysis of the Laser Heat Treatment of WC-17Co Thermally Sprayed Coating“. In ITSC2022. DVS Media GmbH, 2022. http://dx.doi.org/10.31399/asm.cp.itsc2022p0928.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Abstract In recent years, laser-based post-processing of thermally sprayed coatings has gained significant attention as an alternative post-processing route; to mitigate the microstructural defects such as pores, microcracks, and splat boundaries associated with thermally sprayed coatings. Optimisation of the parameters for the laser post-processing is of paramount importance to maintain the required properties of these coatings. The current thermo-mechanical model simulates the impact of laser heat treatment on thermally sprayed Tungsten Carbide Cobalt (WC-17Co) coating and AISI 316L as substrate. A sequentially coupled transient thermal and structural analysis is performed. Transient temperature field from thermal analysis due to laser source will become input loads for the subsequent stress-strain analysis with appropriate boundary conditions. Both the coating and substrate are given temperature-dependent material properties. A gaussian heat flux distribution is used to model the laser source. The finite element analysis results underline the importance of temperature gradients and the presence of thermally induced stress-strain fields responsible for promoting coating degradation. The obtained results also revealed that heat input and dimensional characteristics play a vital role in the annealing treatment's efficacy. Three separate test cases were considered wherein the hatch spacing was varied, keeping the other parameters (scan speed, laser power, and laser spot diameter) constant. The impact of hatch spacing on the temperature and residual stress distribution across the coating was assessed by this simulation. Residual compressive stress was observed in the coating for two out of the three test cases, which further improved the durability of the coating.
3

Kumar, Dilip, Sanjay Barad und T. N. Suresh. „Gas Turbine Blade Damper: A Design Optimization Study to Mitigate High Resonance Blade Vibration“. In ASME 2013 Gas Turbine India Conference. American Society of Mechanical Engineers, 2013. http://dx.doi.org/10.1115/gtindia2013-3748.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
This paper describes the design optimization study of an under platform damper to mitigate high vibration problem of a gas turbine rotor blade under resonance condition. An existing theoretical model explicitly, Casba friction damper model was used to evaluate the dynamic characteristics of the turbine blade with under platform damper. Turbine blade is approximated as two degrees of spring-damper-mass system, which is dynamically equivalent to real turbine blades for its first two eigen values. Blade tip response predictions were carried out for different damper mass, stiffness and coefficient of friction under simulated rotational speed of the rotor, to arrive at an optimum mass to control the blade tip response. As a practical application, along with damper mass optimization, shape and mass distribution of the damper is obtained by design trials to ensure good contact between the blade root and damper upper surface. Contact analysis was carried using the ANSYS software. The asymmetric skewed damper geometry posed complications with respect to modelling and optimisation. In realistic application, with the kind of uncertainties in contact pattern, variation in friction coefficient, geometric tolerances, validation/verification plays a major role in assessing the design. As part of verification of this damper design, a full scale gas turbine engine test program was envisaged and completed. Modified optimum damper was implanted as a design change, engine was instrumented for blade vibration measurement. Non-Intrusive Stress Measurement system was used for measuring blade tip amplitudes from all the blades in the rotor. Test blade tip vibration was analysed and compared against the predications. This optimised damper configuration has showed significant reduction in blade amplitudes during full-scale gas turbine testing, in comparison to original design proving the efficacy of new modified damper.
4

Dubey, Mayank. „Smart signals in heterogeneous traffic conditions“. In 55th ISOCARP World Planning Congress, Beyond Metropolis, Jakarta-Bogor, Indonesia. ISOCARP, 2019. http://dx.doi.org/10.47472/nsde5701.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Annotation:
Major urban corridors in Indian cities are carrying significantly high traffic leading to near saturated conditions for extended peak hours. As mixed landuse and major trip attracting/generating establishments are generally observed to be located along such corridors for better accessibility, significant side friction is also observed along these corridors. Among various measures to improve the throughput along such corridors, signalized intersections seem to be the most preferred intervention for intersection control. Although frequent occurrence of such traffic signals and non-coordinated signal phases have in turn made the whole situation more complex. To overcome this challenge, variations of smart signals are being proposed by technology and traffic enterprises globally. Generally, smart interventions in operation of signalised intersections require communication among vehicles and control system through various sensors and applications of Intelligent transport services (ITS). Smart signal operations require the sensors grouted in pavement or attached with camera to share the relevant data in real time basis with central command and control centre. With adaptive signal operations, it is attempted to schedule signal phases in such a way that green phase of every cycle generally experiences near saturated flow conditions. The smart cities mission (SCM) of India, covering around 100 cities also focuses upon improving the urban mobility through various measures including smart signals. Some of the popular proposals relating to smart operation of signalised intersection across shortlisted smart cities include adaptive and coordinated traffic signals. It is understood that traffic signal optimization is not a one-time action but rather a continuous process, as data archiving, data crunching, research and adaptations are indispensable for its success. As the geometry, location and setting of each intersection in every network is bound to be unique, the optimization process needs to consider the same. The literature and case study of Indian city Bhubaneswar (ranked first in nationwide smart city challenge) revealed that challenges specific to Indian driving conditions are major cause of worry for yielding stated benefits of smart signals. Factors like varying hierarchy and functions along major arterial corridors, fluctuating carriageway width and quality, considerable side friction within right of way, heterogeneity in vehicular mix, significant variation in peak hour directional flows leading to tidal flow, surrounding network characteristics and efficacy of optimisation techniques are responsible for limited rewards out of the whole process. The study reflects upon these challenges and concludes with recommendations to improve the performance of signalized intersections along corridors with heterogeneous traffic conditions.

Zur Bibliographie