Auswahl der wissenschaftlichen Literatur zum Thema „Algorithme de tri“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Algorithme de tri" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Algorithme de tri"

1

El Hage, W. „Vers une mise à jour des recommandations sur la prise en charge pharmacologique de la dépression résistante“. European Psychiatry 28, S2 (November 2013): 42. http://dx.doi.org/10.1016/j.eurpsy.2013.09.108.

Der volle Inhalt der Quelle
Annotation:
Le réseau national français de soins spécifiques centrés sur la dépression résistante présente un algorithme décisionnel pour une prise en charge pharmacologique adaptée de la dépression majeure non-bipolaire. Cet algorithme tient compte des données de la littérature internationale, ainsi que des différentes recommandations nationales et internationales. Le but est de mettre à disposition des cliniciens français un algorithme décisionnel thérapeutique d’usage pratique, tenant compte de l’évidence scientifique et des molécules aujourd’hui disponibles en France. Ces recommandations considèrent, au-delà du choix initial d’un antidépresseur, selon le niveau de résistance, le changement d’antidépresseur, le recours aux combinaisons d’antidépresseurs avec la place des antidépresseurs de première et seconde génération (tri- ou tétracycliques, mirtazapine, miansérine), ainsi que les diverses stratégies possibles de potentialisation (lithium, carbamazépine, lamotrigine, divalproate, hormones thyroïdiennes, buspirone, bupropion, pindolol, antipsychotiques atypiques, stimulants…). Ces recommandations en matière de prescription sont destinées à un large usage clinique avec pour objectif de faciliter et améliorer la prise en charge thérapeutique des dépressions résistantes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lin, H. X. „Graph Transformation and Designing Parallel Sparse Matrix Algorithms beyond Data Dependence Analysis“. Scientific Programming 12, Nr. 2 (2004): 91–100. http://dx.doi.org/10.1155/2004/169467.

Der volle Inhalt der Quelle
Annotation:
Algorithms are often parallelized based on data dependence analysis manually or by means of parallel compilers. Some vector/matrix computations such as the matrix-vector products with simple data dependence structures (data parallelism) can be easily parallelized. For problems with more complicated data dependence structures, parallelization is less straightforward. The data dependence graph is a powerful means for designing and analyzing parallel algorithms. However, for sparse matrix computations, parallelization based on solely exploiting the existing parallelism in an algorithm does not always give satisfactory results. For example, the conventional Gaussian elimination algorithm for the solution of a tri-diagonal system is inherently sequential, so algorithms specially for parallel computation has to be designed. After briefly reviewing different parallelization approaches, a powerful graph formalism for designing parallel algorithms is introduced. This formalism will be discussed using a tri-diagonal system as an example. Its application to general matrix computations is also discussed. Its power in designing parallel algorithms beyond the ability of data dependence analysis is shown by means of a new algorithm called ACER (Alternating Cyclic Elimination and Reduction algorithm).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Wang, Li Guo, Yue Shuang Yang und Ting Ting Lu. „Semi-Supervised Classification for Hyperspectral Image Based on Tri-Training“. Applied Mechanics and Materials 687-691 (November 2014): 3644–47. http://dx.doi.org/10.4028/www.scientific.net/amm.687-691.3644.

Der volle Inhalt der Quelle
Annotation:
Hyperspectral image classification is difficult due to the high dimensional features but limited training samples. Tri-training learning is a widely used semi-supervised classification method that addresses the problem of lacking of labeled examples. In this paper, a novel semi-supervised learning algorithm based on tri-training method is proposed. The proposed algorithm combines margin sampling (MS) technique and differential evolution (DE) algorithm to select the most informative samples and perturb them randomly. Then the samples we obtained, which can fulfill the labeled data distribution and introduce diversity to multiple classifiers, are added to training set to train base classifiers for tri-training. The proposed algorithm is experimentally validated using real hyperspectral data sets, indicating that the combination of MS and DE can significantly reduce the need of labeled samples while achieving high accuracy compared with state-of-the-art algorithms.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Yuan, Yali, Liuwei Huo, Yachao Yuan und Zhixiao Wang. „Semi-supervised tri-Adaboost algorithm for network intrusion detection“. International Journal of Distributed Sensor Networks 15, Nr. 6 (Juni 2019): 155014771984605. http://dx.doi.org/10.1177/1550147719846052.

Der volle Inhalt der Quelle
Annotation:
Network intrusion detection is a relatively mature research topic, but one that remains challenging particular as technologies and threat landscape evolve. Here, a semi-supervised tri-Adaboost (STA) algorithm is proposed. In the algorithm, three different Adaboost algorithms are used as the weak classifiers (both for continuous and categorical data), constituting the decision stumps in the tri-training method. In addition, the chi-square method is used to reduce the dimension of feature and improve computational efficiency. We then conduct extensive numerical studies using different training and testing samples in the KDDcup99 dataset and discover the flows demonstrated that (1) high accuracy can be obtained using a training dataset which consists of a small number of labeled and a large number of unlabeled samples. (2) The algorithm proposed is reproducible and consistent over different runs. (3) The proposed algorithm outperforms other existing learning algorithms, even with only a small amount of labeled data in the training phase. (4) The proposed algorithm has a short execution time and a low false positive rate, while providing a desirable detection rate.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

You, Qi, Jun Sun, Feng Pan, Vasile Palade und Bilal Ahmad. „DMO-QPSO: A Multi-Objective Quantum-Behaved Particle Swarm Optimization Algorithm Based on Decomposition with Diversity Control“. Mathematics 9, Nr. 16 (16.08.2021): 1959. http://dx.doi.org/10.3390/math9161959.

Der volle Inhalt der Quelle
Annotation:
The decomposition-based multi-objective evolutionary algorithm (MOEA/D) has shown remarkable effectiveness in solving multi-objective problems (MOPs). In this paper, we integrate the quantum-behaved particle swarm optimization (QPSO) algorithm with the MOEA/D framework in order to make the QPSO be able to solve MOPs effectively, with the advantage of the QPSO being fully used. We also employ a diversity controlling mechanism to avoid the premature convergence especially at the later stage of the search process, and thus further improve the performance of our proposed algorithm. In addition, we introduce a number of nondominated solutions to generate the global best for guiding other particles in the swarm. Experiments are conducted to compare the proposed algorithm, DMO-QPSO, with four multi-objective particle swarm optimization algorithms and one multi-objective evolutionary algorithm on 15 test functions, including both bi-objective and tri-objective problems. The results show that the performance of the proposed DMO-QPSO is better than other five algorithms in solving most of these test problems. Moreover, we further study the impact of two different decomposition approaches, i.e., the penalty-based boundary intersection (PBI) and Tchebycheff (TCH) approaches, as well as the polynomial mutation operator on the algorithmic performance of DMO-QPSO.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Zhao, Ya Hui, Hong Li Wang und Rong Yi Cui. „Abnormal Voice Detection Algorithm Based on Semi-Supervised Co-Training Algorithm“. Advanced Materials Research 461 (Februar 2012): 117–22. http://dx.doi.org/10.4028/www.scientific.net/amr.461.117.

Der volle Inhalt der Quelle
Annotation:
The AR-Tri-training algorithm is proposed for applying to the abnormal voice detection, and voice detection software is designed by mixed programming used Matlab and VC in this paper. Firstly, training samples are collected and the features of each sample are extracted including centroid, spectral entropy, wavelet and MFCC. Secondly, the assistant learning strategy is proposed, AR-Tri-training algorithm is designed by combining the rich information strategy. Finally, Classifiers are trained by using AR-Tri-training algorithm, and the integrated classifier is applied to voice detection. As can be drawn from the experimental results, AR-Tri-training not only removes mislabeled examples in training process, but also takes full advantage of the unlabeled examples and wrong-learning examples on validation set
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Gumaida, Bassam, Chang Liu und Juan Luo. „GTMA: Localization in Wireless Sensor Network Based a Group of Tri-Mobile Anchors“. Journal of Computational and Theoretical Nanoscience 14, Nr. 1 (01.01.2017): 847–57. http://dx.doi.org/10.1166/jctn.2017.6287.

Der volle Inhalt der Quelle
Annotation:
Sensors positioning with high accuracy is a fundamental stone in Wireless Sensor Networks (WSNs). In outdoor environment which is hostile and unreachable, mobile anchors method is considered as an appropriate solution for locating unknown nodes. In this case, the key problems are the trajectory mapping and the needed number of mobile anchors. These mobile anchors should travel along the trajectory in order to determine the positions of unknown nodes with minimum localization error. In this paper, a localization algorithm named Group of Tri-Mobile Anchors (GTMA) is proposed, which is based on a group of tri-mobile anchors with adjustable square trajectory in the deployment area. The position of a target node is calculated by Trilateration. Simulation results show that the performance of the proposed algorithm GTMA is better than that of other algorithms adopted one mobile anchor, e.g., HILBERT, LMAT and SPIRAL algorithms. This is clearly evident in both the localization accuracy and trajectory planning.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Cui, Long Jie, Hong Li Wang und Rong Yi Cui. „AR-Tri-Training: Tri-Training with Assistant Strategy“. Applied Mechanics and Materials 513-517 (Februar 2014): 1840–44. http://dx.doi.org/10.4028/www.scientific.net/amm.513-517.1840.

Der volle Inhalt der Quelle
Annotation:
The classification performance of the classifier is weakened because the noise samples are introduced for the use of unlabeled samples in Tri-training. In this paper a new Tri-training style algorithm named AR-Tri-training (Tri-training with assistant and rich strategy) is proposed. Firstly, the assistant learning strategy is posed. Then the supporting learner is designed by combining the assistant learning strategy with rich information strategy. The number of mislabeled samples produced in the iterations of three classifiers mutually labeling are reduced by use of the supporting learner, moreover the unlabeled samples and the misclassified samples of validation set can be fully used. The proposed algorithm is applied to voice recognition. The experimental results show that AR-Tri-training algorithm can compensate for the shortcomings of Tri-training algorithm, further improve the testing rate.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Wang, Xin, Yuan Shan Lin, Di Wu, D. W. Yang, X. K. Wang und Shun De Gao. „An Algorithm for Distance Computing Based on Tri-Mesh“. Materials Science Forum 626-627 (August 2009): 669–74. http://dx.doi.org/10.4028/www.scientific.net/msf.626-627.669.

Der volle Inhalt der Quelle
Annotation:
Along with the development of simulation technology, systems of three-dimensional simulation are being used in more and more domains. The distance of objects is one of the important measures which are used to estimate the relationship of object’s position and to weigh the attributes of their own movement. The distance computing places an important role in the system of 3D simulation. In this paper, the two-phases (broad-phase and narrow-phase) algorithm for computing distance is presented. Using the algorithm, finally we have got the minimum distance of objects, and the feasibility and veracity of the algorithms are proved by an example.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Wang, Ende, Jinlei Jiao, Jingchao Yang, Dongyi Liang und Jiandong Tian. „Tri-SIFT: A Triangulation-Based Detection and Matching Algorithm for Fish-Eye Images“. Information 9, Nr. 12 (26.11.2018): 299. http://dx.doi.org/10.3390/info9120299.

Der volle Inhalt der Quelle
Annotation:
Keypoint matching is of fundamental importance in computer vision applications. Fish-eye lenses are convenient in such applications that involve a very wide angle of view. However, their use has been limited by the lack of an effective matching algorithm. The Scale Invariant Feature Transform (SIFT) algorithm is an important technique in computer vision to detect and describe local features in images. Thus, we present a Tri-SIFT algorithm, which has a set of modifications to the SIFT algorithm that improve the descriptor accuracy and matching performance for fish-eye images, while preserving its original robustness to scale and rotation. After the keypoint detection of the SIFT algorithm is completed, the points in and around the keypoints are back-projected to a unit sphere following a fish-eye camera model. To simplify the calculation in which the image is on the sphere, the form of descriptor is based on the modification of the Gradient Location and Orientation Histogram (GLOH). In addition, to improve the invariance to the scale and the rotation in fish-eye images, the gradient magnitudes are replaced by the area of the surface, and the orientation is calculated on the sphere. Extensive experiments demonstrate that the performance of our modified algorithms outweigh that of SIFT and other related algorithms for fish-eye images.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Algorithme de tri"

1

Durand, Marie. „PaVo Un tri parallèle adaptatif“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00959995.

Der volle Inhalt der Quelle
Annotation:
Les joueurs exigeants acquièrent dès que possible une carte graphique capable de satisfaire leur soif d'immersion dans des jeux dont la précision, le réalisme et l'interactivité redoublent d'intensité au fil du temps. Depuis l'avènement des cartes graphiques dédiées au calcul généraliste, ils n'en sont plus les seuls clients. Dans un premier temps, nous analysons l'apport de ces architectures parallèles spécifiques pour des simulations physiques à grande échelle. Cette étude nous permet de mettre en avant un goulot d'étranglement en particulier limitant la performance des simulations. Partons d'un cas typique : les fissures d'une structure complexe de type barrage en béton armé peuvent être modélisées par un ensemble de particules. La cohésion de la matière ainsi simulée est assurée par les interactions entre elles. Chaque particule est représentée en mémoire par un ensemble de paramètres physiques à consulter systématiquement pour tout calcul de forces entre deux particules. Ainsi, pour que les calculs soient rapides, les données de particules proches dans l'espace doivent être proches en mémoire. Dans le cas contraire, le nombre de défauts de cache augmente et la limite de bande passante de la mémoire peut être atteinte, particulièrement en parallèle, bornant les performances. L'enjeu est de maintenir l'organisation des données en mémoire tout au long de la simulation malgré les mouvements des particules. Les algorithmes de tri standard ne sont pas adaptés car ils trient systématiquement tous les éléments. De plus, ils travaillent sur des structures denses ce qui implique de nombreux déplacements de données en mémoire. Nous proposons PaVo, un algorithme de tri dit adaptatif, c'est-à-dire qu'il sait tirer parti de l'ordre pré-existant dans une séquence. De plus, PaVo maintient des trous dans la structure, répartis de manière à réduire le nombre de déplacements mémoires nécessaires. Nous présentons une généreuse étude expérimentale et comparons les résultats obtenus à plusieurs tris renommés. La diminution des accès à la mémoire a encore plus d'importance pour des simulations à grande échelles sur des architectures parallèles. Nous détaillons une version parallèle de PaVo et évaluons son intérêt. Pour tenir compte de l'irrégularité des applications, la charge de travail est équilibrée dynamiquement par vol de travail. Nous proposons de distribuer automatiquement les données en mémoire de manière à profiter des architectures hiérarchiques. Les tâches sont pré-assignées aux cœurs pour utiliser cette distribution et nous adaptons le moteur de vol pour favoriser des vols de tâches concernant des données proches en mémoire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Guedj, Mikaël. „Peut-on déléguer le tri des urgences ophtalmologiques à un algorithme informatisé auto-implémenté par le patient ? : le projet ICARE (Interactive Care Assessment of Risk factors and Emergency levels)“. Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB190.

Der volle Inhalt der Quelle
Annotation:
Chaque année en France, 4 millions de consultations en urgence ne sont pas justifiées d'un point de vue médical et presque la moitié des patients se présentant aux Urgences auraient vocation à être traités ailleurs, libérant ainsi les services d'Urgences destinés à traiter les réelles situations urgentes. L'engorgement des Urgences a conduit les services à mettre en place une priorisation de la prise en charge à l'accueil des patients ; cette priorisation n'est pas standardisée ni rationalisée. Nous avons conçu un outil informatisé permettant le tri des niveaux d'urgence en fonction des symptômes, antécédents et contexte médical du patient. Par cet outil, baptisé iCare, le patient seul ou aidé d'un tiers, doit être capable de détecter et de prioriser ses symptômes devant mener à une consultation urgente, par opposition aux symptômes moins urgents ou non-urgents. L'évaluation de l'algorithme iCare concernant les pathologies oculaires a pour ambition de disposer d'un outil de tri généralisable et reproductible au sein des différentes unités de soin, mais aussi à améliorer la responsabilisation et l'autonomie des patients dans la compréhension de leurs symptômes et leur recours au système de soins (concept d'empowerment en e-santé). L'objectif principal de notre recherche interventionnelle ne comportant que des risques et contraintes minimes consistait à valider l'algorithme de tri iCare, déterminant le niveau d'urgence approprié correspondant aux situations cliniques rencontrées. Cette validité était basée sur les calculs de sensibilité, spécificité, valeurs prédictives positives et négatives. Le niveau de référence retenu était le niveau d'urgence déterminé par le médecin à l'issue de sa consultation. Un effectif de 1000 patient se présentant pour une urgence ophtalmologique s'est vu proposer la participation à la recherche à son arrivée à l'accueil de deux centres de soins parisiens (Fondation Rothschild, Institut Vernes), à compter de la date d'acceptation du protocole par le Comité pour la Protection des Personnes dans la recherche biomédicale (CPP). Si le patient consentait à participer à la recherche, un technicien d'étude clinique (TEC) lui faisait remplir l'algorithme iCare, présenté sous forme de questionnaire interactif sur tablette tactile, dont l'implémentation prenait en routine moins de deux minutes. À l'issue de cette implémentation, un niveau d'urgence A, B, C ou D était fourni par le programme. Le niveau d'urgence attribué par l'algorithme n'était connu ni du patient, ni du médecin qui allait l'examiner. Le niveau d'urgence déterminé par le médecin à l'issue de son examen clinique (gold standard du critère de jugement principal) était recueilli, sous forme de niveau A,B,C,D ou de choix binaire Urgent / Non Urgent (U / NU). D'autres paramètres, comme temps nécessaire et le besoin d'aide au remplissage, le motif de consultation, les données démographiques et le temps d'attente sur place ont également été analysés. Cette thèse dresse un état de l'art de l'appellation "e-santé" en 2018, aborde les problématiques actuelles de santé publique liées à l'hyperfréquentation des services d'urgence en France, et présente l'outil iCare comme solution potentielle pour simplifier et rationaliser le tri des niveaux d'urgence en ophtalmologie (aspect santé publique), comme moyen d'éducation à la santé et d'autonomisation des patients dans la lecture de leurs symptômes (aspect empowerment), mais aussi comme outil généralisable de big data rapportant les motifs de consultation dans les services d'urgence, les cabinets ou même à domicile (aspect épidémiologique)
Every year in France, 4 million emergency consultations are not justified from a medical point of view and almost half of the patients presenting to the Emergency Department could be treated elsewhere, thus releasing the Emergency Departments to take care of the real urgent situations. The overcrowding of the ERs led the services to set up a prioritization of care for the reception of patients; this prioritization is not standardized nor rationalized. We designed a computerized tool to sort emergency levels based on a patient's symptoms, background, and medical context. By this tool, called iCare, the patient alone or assisted by a third party, must be able to detect and prioritize his symptoms leading to an urgent consultation, as opposed to less urgent or non-urgent symptoms. The evaluation of the iCare algorithm regarding ocular pathologies aims to run a generalizable and reproducible sorting tool within the different care units, but also to improve patient autonomy in the understanding of their symptoms and their use of the healthcare system (e-health concept of empowerment). The main objective of our "interventional research involving only minimal risks and constraints" was to validate the iCare sorting algorithm, determining the appropriate level of urgency corresponding to the clinical situations encountered. This validity was based on the calculations of sensitivity, specificity, positive and negative predictive values. The chosen gold-standard was the level of emergency determined by the doctor after his consultation. A number of 1000 patients presenting for an ophthalmological emergency were offered to participate in research upon arrival at the reception of two Parisian health centers (Rothschild Foundation, Vernes Institute), from the date of protocol acceptance by the Committee for the Protection of Persons in biomedical research (CPP). If the patient consented to participate in research, a Clinical Study Technician (CST) made him fill in the iCare algorithm, presented as an interactive questionnaire on touchscreen tablet, whose implementation took less than two minutes. At the end of this implementation, a level of emergency A, B, C or D was provided by the program. The level of emergency attributed by the algorithm was unknown to either the patient or the doctor who was going to examine him. The level of emergency determined by the physician at the end of his clinical examination (gold standard of the primary endpoint) was collected as a level A, B, C, D or as binary choice Urgent / No Urgent (U / NU). Other parameters, such as the time required and the need for filling assistance, the reason for consultation, demographics and on-site waiting time were also analyzed. This thesis outlines a state of the art of the word "e-health" in 2018, addresses the current public health issues related to high traffic in emergency services in France, and features the iCare tool as a potential solution to simplify and rationalize the sorting of emergency levels in ophthalmology (public health feature), as a means of health education and empowerment of patients in the reading of their symptoms (empowerment feature), but also as a generalizable tool for big data reporting of the reasons for consultation in the emergency wards, private practices or even at home health-related internet researches (epidemiological feature)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Guewouo, Thomas. „Système Intégré et Multi-Fonctionnel de Stockage Electrique-Thermique avec l’Option de Tri-Génération“. Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4009/document.

Der volle Inhalt der Quelle
Annotation:
Pour faire face aux changements climatiques, la transition énergétique s’impose aujourd’hui comme une évidence. Les sources d’énergie renouvelables devant aider à cette transition sont caractérisées par leurs intermittences qui requièrent des dispositifs de stockages afin de garantir la fiabilité des systèmes énergétique utilisant ces dernières. Le stockage d’électricité par air comprimé (CAES) est l’un de ces dispositifs de stockage d’énergie. Cependant, dans sa configuration actuellement commercialisée, le CAES brûle en phase de décharge du gaz naturel afin d’améliorer le rendement de conversion du système. Le présent travail contribue à la diminution de l’empreinte écologique de cette technique de stockage en proposant un système de taille réduite n’utilisant aucune source d’énergie fossile. Dans un premier temps, une modélisation thermodynamique fine d’un tel système est faite en fonction des types de composants choisis et de leurs comportements thermiques (adiabatique, polytropique). Une étude expérimentale visant à démontrer la faisabilité d’un tel système est par la suite réalisée sur un prototype de laboratoire. Le très faible rendement de conversion expérimental obtenu (4%), bien que confirmant la faisabilité technique nous a suggéré une optimisation du système de stockage proposé. L’algorithme génétique à codage réel, modifié afin de stabiliser et d’accélérer sa convergence est présenté de façon détaillée puis utilisé pour identifier un ensemble de 13 paramètres maximisant le rendement exergétique du système. Un rendement électrique de conversion d’environ 20% est obtenu sur le système optimisé pour un rendement énergétique global de plus de 75%
To address climate change, the transition to a decarbonized energy system is self-evident. The renewable energy sources to support this energy transition are intermittent. Therefore, they should be coupled at an electrical storage system to ensure the reliability of power system using same. Compressed air energy storage (CAES) happens to be one of these technologies of energy storage. Unfortunately, in its current configuration, CAES requires the combustion of natural gas during the discharging periods to improve the global energy efficiency of system. This work contributes to the reduction of the environmental footprint of compressed air energy storage by proposing a small-scale CAES using no fossil fuel energy source. Initially, a careful thermodynamic modeling of such a storage system is made according to the types of components chosen and to their thermal behavior (adiabatic or polytropic). Subsequently, for demonstrating its feasibility, a comprehensive experimental investigation was performed on experimental prototype existing in our lab. The very low experimental conversion efficiency obtained (4%) although confirming the technical feasibility, it has suggested that the proposed storage system should be optimized. A modified real coded genetic algorithm to stabilize and accelerate its convergence is documented here and used to identify a set of thirteen parameters who maximize the global exergy efficiency of proposed electric energy storage system. The result of the optimization indicates that in the optimum operating point, the electrical efficiency of storage system is about 20% for a round trip efficiency of 75%
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Chibirova, Olga. „Interactions fonctionnelles dans les ganglions de la base étudiées par l'enregistrement simultané des activités unitaires discriminées par un algorithme non supervisé de tri de potentiels d'action“. Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00115720.

Der volle Inhalt der Quelle
Annotation:
La thèse porte sur une nouvelle méthode de tri non supervisé de potentiels d'action et sur son application à l'analyse de l'activité neuronale des ganglions de la base. Le développement de nouvelles approches au tri de potentiels d'action est actuel en vue de nouveaux outils nécessaires à l'électrophysiologie effectuée pendent la neurochirurgie fonctionnelle, autant que pour l'efficacité des l'expériences électrophysiologiques en temps réel.
La méthode présentée dans la première partie de cette thèse est une nouvelle approche à ce problème qui décrit les potentiels d'action à l'aide des équations différentielles avec perturbation caractérisant la variation interne de leur forme. Le logiciel permettant le tri de potentiels d'action non supervisé développé à partir de cette méthode comprends un algorithme automatique d'évaluation d'étalons de classes et de leurs rayons.
La seconde partie présente l'application de la méthode à l'analyse de l'activité neuronale des ganglions de la base. Les donnés pour les analyses ont été recueillis au bloque chirurgical du département de neurochirurgie de l'Hôpital Universitaire de Grenoble pendent l'électrophysiologie intra chirurgicale et représentent le STN (950 enregistrements), le GPI (183) et le SNR (105) de 13 patients parkinsoniens et 2 patients souffrant de dystonie. Les analyses sont destinées à définir les formes typiques de potentiel d'action et à révéler un parallèle entre la nature de l'activité neuronale et la gravité des symptômes de la maladie de Parkinson.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Moine, Pascale. „Analyse tri-dimensionnelle de la structure de l'atmosphère à partir d'observations satellitaires : classification des masses d'air observées et extension à la haute stratosphère (30-50 km)“. Paris 6, 1986. http://www.theses.fr/1986PA066329.

Der volle Inhalt der Quelle
Annotation:
A partir des mesures de flux d'énergie radiante émis par l'atmosphère et effectuées des plateformes satellitaires, on peut, par un processus connu sous le nom "d'inversion de l'équation de transfert radiatif", remonter à la structure verticale de l'atmosphère, en température et en composition. Un tel procédé d'inversion, en vue du traitement des données des satellites de la série tiros-n, a été élaboré au L. M. D. Au cours des dernières années. C'est une méthode physico-statistique, qui consiste à résoudre l'équation de transfert radiatif de manière itérative et qui repose en grande partie sur la qualité de la solution initiale pour démarrer le processus itératif. La connaissance a priori des types de masse d'air observés est un élément essentiel de la reconnaissance de proximités utilisée pour l'initialisation. C'est pourquoi nous avons cherché à extraire cette information par application d'un algorithme de classification d'observations satellitaires (mesure de radiances). Parmi les méthodes de classification existant, nous avons retenu celle dite des "nuées dynamiques" basée sur la notion de "formes fortes" et l'optimisation d'un critère de variance. L'algorithme a ensuite été valide expérimentalement par application à des situations météorologiques relatives au satellite noaa-7. Les résultats obtenus sont en accord avec les analyses météorologiques conventionnelles. Par ailleurs, l'algorithme d'inversion du L. M. D. Permettait de restituer les paramètres atmosphériques jusqu'à environ 30 km d'altitude. La méthode développée dans cette étude a permis d'étendre cette restitution jusqu'à 50 km. Elle utilise les observations du "stratospheric sounding unit" (SSU) et est basée sur une technique de régression multilinéaire. Le modèle construit a été valide par application a des scènes NOAA-7, ainsi qu'a des phénomènes particuliers: « les échauffements stratosphériques brusques ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Abdayem, Anthony. „Stratégies de contrôle optimisées pour les convertisseurs multiniveaux modulaires (MMCs) connectés au réseau basse tension“. Electronic Thesis or Diss., CY Cergy Paris Université, 2024. http://www.theses.fr/2024CYUN1301.

Der volle Inhalt der Quelle
Annotation:
Le convertisseur modulaire multiniveaux (MMC) s'est imposé comme l'une des topologies les plus prometteuses pour les applications à moyenne et haute tension ainsi qu'à haute puissance. Récemment, il a également montré son potentiel pour des applications nécessitant de faibles tensions, appelées mini MMCs, qui contiennent un plus petit nombre de sous-modules par bras. Les caractéristiques clés des MMCs incluent la modularité, l'évolutivité en tension et en puissance, la tolérance aux pannes, le fonctionnement sans transformateur et des formes d'onde de sortie de haute qualité. Ces dernières années, de nombreuses études de recherche ont été menées pour aborder les défis techniques liés au fonctionnement, au contrôle et à la topologie des MMCs.L'une des applications les plus importantes des MMCs se trouve dans les systèmes connectés au réseau. Ces convertisseurs offrent l'avantage de réduire les harmoniques de courant et de tension sans avoir besoin de composants passifs encombrants. De plus, les MMCs se révèlent fiables grâce à leur structure, qui leur permet de continuer à fonctionner même en cas de défaillance d'un ou plusieurs interrupteurs de puissance. Cependant, leur contrôle est complexe en raison du grand nombre de configurations de commutation, nécessitant des algorithmes de contrôle sophistiqués. Cette thèse se concentre sur la mise en œuvre de techniques de contrôle avancées pour améliorer les performances des MMCs. Elle vise à explorer les MMCs, à améliorer les structures de puissance existantes pour de nouvelles applications, et à accroître l'efficacité et la fiabilité grâce à des techniques de conception de contrôle et de modulation. La recherche explore également le contrôle des MMCs à l'aide de méthodes de contrôle prédictif modélisées (MPC) innovantes.Plus précisément, cette thèse comprend une série d'études abordant les défis et améliorant les performances des MMCs dans diverses applications. Le premier ensemble d'études porte sur une nouvelle conception de contrôle pour les MMCs, permettant le contrôle séparé des tensions des condensateurs dans les bras supérieur et inférieur. La recherche cible également les MMCs monophasés, permettant le contrôle en conditions de déséquilibre de puissance entre les bras supérieur et inférieur. De plus, l'étude traite des techniques de modulation et d'équilibrage de tension. Une nouvelle technique de modulation, la technique de modulation intégrale (IM), une avancée par rapport à la technique de modulation au niveau le plus proche (NLM), est introduite. Un nouvel algorithme de tri est également proposé pour améliorer l'efficacité des MMCs en réduisant le nombre de commutations par seconde pour les techniques de modulation existantes telles que NLM, IM et PWM.La recherche s'étend également à l'exploitation en tolérance aux pannes dans les MMCs triphasés, proposant une méthode qui injecte des courants circulants harmoniques de fréquence et de courant continu pour maintenir le fonctionnement en cas de défaillance d'un bras. Une contribution importante consiste à développer un algorithme de contrôle prédictif modélisé à ensemble fini à horizon unique (FCS-MPC) pour les MMCs monophasés, qui surpasse les méthodes traditionnelles en termes de commutations, de qualité des formes d'onde de courant de réseau et de variation des tensions des condensateurs. Six algorithmes FCS-MPC pour les MMCs sont introduits, offrant des perspectives sur leurs performances par rapport à un schéma de contrôle en cascade classique. La thèse se termine par une configuration innovante pour un convertisseur à ponts en H en cascade (CHB), conçu pour l'intégration des énergies renouvelables, démontrant son efficacité à travers des simulations
The modular multilevel converter (MMC) has emerged as one of the most promising topologies for medium- to high-voltage, high-power applications. Recently, it has also shown potential for applications requiring low voltages, known as mini MMCs, which contain a smaller number of submodules per arm. Key features of MMCs include modularity, voltage and power scalability, fault tolerance, transformer-less operation, and high-quality output waveforms. In recent years, numerous research studies have been conducted to address the technical challenges associated with MMC operation, control, and topology.One of the most significant applications for MMCs is in grid-connected systems. These converters offer the advantage of reducing current and voltage harmonics without the need for bulky passive components. Moreover, MMCs demonstrate reliability due to their structure, which enables them to continue operating even if one or more power switches fail. However, their control is complex due to the numerous switching configurations, necessitating sophisticated control algorithms. This thesis focuses on implementing advanced control techniques to enhance MMC performance. It aims to explore MMCs, improve existing power structures for novel applications, and increase efficiency and reliability through control design and modulation techniques. The research also investigates controlling MMCs using novel Model Predictive Control methods.Specifically, this thesis comprises a series of investigations addressing challenges and enhancing MMC performance across various applications. The first set of studies focuses on a new control design for MMCs, allowing separate control of capacitor voltages in the upper and lower arms. The research also targets single-phase MMCs, enabling control under unbalanced power conditions between the upper and lower arms. Additionally, the study addresses modulation and voltage balancing techniques. A new modulation technique, the Integral Modulation Technique, an advancement of the Nearest Level Modulation Technique, is introduced. A novel sorting algorithm is also proposed to enhance MMC efficiency by reducing the number of commutations per second for existing modulation techniques such as NLM, IM, and PWM.The research extends to fault-tolerant operation in three-phase MMCs, proposing a method that injects DC and frequency harmonic circulating currents to sustain operation in the event of a faulty arm. A significant contribution involves developing a single-horizon finite control set model predictive control (FCS-MPC) algorithm for single-phase MMCs, which outperforms traditional methods in terms of commutations, grid current waveform quality, and capacitor voltage variance. Six FCS-MPC algorithms for MMCs are introduced, offering insights into their performance compared to a classic cascaded control scheme. The thesis concludes with a novel configuration for a Cascaded H-Bridge (CHB) converter designed for renewable energy integration, demonstrating effectiveness through simulations.In summary, this thesis presents a comprehensive exploration of MMCs, addressing control challenges, fault tolerance, modulation techniques, and innovative configurations for renewable energy integration. The findings contribute to advancing MMC technologies in various applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Le, Trung-Dung. „Gestion de masses de données dans une fédération de nuages informatiques“. Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S101.

Der volle Inhalt der Quelle
Annotation:
Les fédérations de nuages informatiques peuvent être considérées comme une avancée majeure dans l’informatique en nuage, en particulier dans le domaine médical. En effet, le partage de données médicales améliorerait la qualité des soins. La fédération de ressources permettrait d'accéder à toutes les informations, même sur une personne mobile, avec des données hospitalières distribuées sur plusieurs sites. En outre, cela permettrait d’envisager de plus grands volumes de données sur plus de patients et ainsi de fournir des statistiques plus fines. Les données médicales sont généralement conformes à la norme DICOM (Digital Imaging and Communications in Medicine). Les fichiers DICOM peuvent être stockés sur différentes plates-formes, telles qu’Amazon, Microsoft, Google Cloud, etc. La gestion des fichiers, y compris le partage et le traitement, sur ces plates-formes, suit un modèle de paiement à l’utilisation, selon des modèles de prix distincts et en s’appuyant sur divers systèmes de gestion de données (systèmes de gestion de données relationnelles ou SGBD ou systèmes NoSQL). En outre, les données DICOM peuvent être structurées en lignes ou colonnes ou selon une approche hybride (ligne-colonne). En conséquence, la gestion des données médicales dans des fédérations de nuages soulève des problèmes d’optimisation multi-objectifs (MOOP - Multi-Objective Optimization Problems) pour (1) le traitement des requêtes et (2) le stockage des données, selon les préférences des utilisateurs, telles que le temps de réponse, le coût monétaire, la qualités, etc. Ces problèmes sont complexes à traiter en raison de la variabilité de l’environnement (liée à la virtualisation, aux communications à grande échelle, etc.). Pour résoudre ces problèmes, nous proposons MIDAS (MedIcal system on clouD federAtionS), un système médical sur les fédérations de groupes. Premièrement, MIDAS étend IReS, une plate-forme open source pour la gestion de flux de travaux d’analyse sur des environnements avec différents systèmes de gestion de bases de données. Deuxièmement, nous proposons un algorithme d’estimation des valeurs de coût dans une fédération de nuages, appelé Algorithme de régression %multiple linéaire dynamique (DREAM). Cette approche permet de s’adapter à la variabilité de l'environnement en modifiant la taille des données à des fins de formation et de test, et d'éviter d'utiliser des informations expirées sur les systèmes. Troisièmement, l’algorithme génétique de tri non dominé à base de grilles (NSGA-G) est proposé pour résoudre des problèmes d’optimisation multi-crtières en présence d’espaces de candidats de grande taille. NSGA-G vise à trouver une solution optimale approximative, tout en améliorant la qualité du font de Pareto. En plus du traitement des requêtes, nous proposons d'utiliser NSGA-G pour trouver une solution optimale approximative à la configuration de données DICOM. Nous fournissons des évaluations expérimentales pour valider DREAM, NSGA-G avec divers problèmes de test et jeux de données. DREAM est comparé à d'autres algorithmes d'apprentissage automatique en fournissant des coûts estimés précis. La qualité de la NSGA-G est comparée à celle des autres algorithmes NSGA présentant de nombreux problèmes dans le cadre du MOEA. Un jeu de données DICOM est également expérimenté avec NSGA-G pour trouver des solutions optimales. Les résultats expérimentaux montrent les qualités de nos solutions en termes d'estimation et d'optimisation de problèmes multi-objectifs dans une fédération de nuages
Cloud federations can be seen as major progress in cloud computing, in particular in the medical domain. Indeed, sharing medical data would improve healthcare. Federating resources makes it possible to access any information even on a mobile person with distributed hospital data on several sites. Besides, it enables us to consider larger volumes of data on more patients and thus provide finer statistics. Medical data usually conform to the Digital Imaging and Communications in Medicine (DICOM) standard. DICOM files can be stored on different platforms, such as Amazon, Microsoft, Google Cloud, etc. The management of the files, including sharing and processing, on such platforms, follows the pay-as-you-go model, according to distinct pricing models and relying on various systems (Relational Data Management Systems or DBMSs or NoSQL systems). In addition, DICOM data can be structured following traditional (row or column) or hybrid (row-column) data storages. As a consequence, medical data management in cloud federations raises Multi-Objective Optimization Problems (MOOPs) for (1) query processing and (2) data storage, according to users preferences, related to various measures, such as response time, monetary cost, qualities, etc. These problems are complex to address because of heterogeneous database engines, the variability (due to virtualization, large-scale communications, etc.) and high computational complexity of a cloud federation. To solve these problems, we propose a MedIcal system on clouD federAtionS (MIDAS). First, MIDAS extends IReS, an open source platform for complex analytics workflows executed over multi-engine environments, to solve MOOP in the heterogeneous database engines. Second, we propose an algorithm for estimating of cost values in a cloud environment, called Dynamic REgression AlgorithM (DREAM). This approach adapts the variability of cloud environment by changing the size of data for training and testing process to avoid using the expire information of systems. Third, Non-dominated Sorting Genetic Algorithm based ob Grid partitioning (NSGA-G) is proposed to solve the problem of MOOP is that the candidate space is large. NSGA-G aims to find an approximate optimal solution, while improving the quality of the optimal Pareto set of MOOP. In addition to query processing, we propose to use NSGA-G to find an approximate optimal solution for DICOM data configuration. We provide experimental evaluations to validate DREAM, NSGA-G with various test problem and dataset. DREAM is compared with other machine learning algorithms in providing accurate estimated costs. The quality of NSGA-G is compared to other NSGAs with many problems in MOEA framework. The DICOM dataset is also experimented with NSGA-G to find optimal solutions. Experimental results show the good qualities of our solutions in estimating and optimizing Multi-Objective Problem in a cloud federation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Auger, Nicolas. „Analyse réaliste d'algorithmes standards“. Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1110/document.

Der volle Inhalt der Quelle
Annotation:
À l'origine de cette thèse, nous nous sommes intéressés à l'algorithme de tri TimSort qui est apparu en 2002, alors que la littérature sur le problème du tri était déjà bien dense. Bien qu'il soit utilisé dans de nombreux langages de programmation, les performances de cet algorithme n'avaient jamais été formellement analysées avant nos travaux. L'étude fine de TimSort nous a conduits à enrichir nos modèles théoriques, en y incorporant des caractéristiques modernes de l'architecture des ordinateurs. Nous avons, en particulier, étudié le mécanisme de prédiction de branchement. Grâce à cette analyse théorique, nous avons pu proposer des modifications de certains algorithmes élémentaires (comme l'exponentiation rapide ou la dichotomie) qui utilisent ce principe à leur avantage, améliorant significativement leurs performances lorsqu'ils sont exécutés sur des machines récentes. Enfin, même s'il est courant dans le cadre de l'analyse en moyenne de considérer que les entrées sont uniformément distribuées, cela ne semble pas toujours refléter les distributions auxquelles nous sommes confrontés dans la réalité. Ainsi, une des raisons du choix d'implanter TimSort dans des bibliothèques standard de Java et Python est probablement sa capacité à s'adapter à des entrées partiellement triées. Nous proposons, pour conclure cette thèse, un modèle mathématique de distribution non-uniforme sur les permutations qui favorise l'apparition d'entrées partiellement triées, et nous en donnons une analyse probabiliste détaillée
At first, we were interested in TimSort, a sorting algorithm which was designed in 2002, at a time where it was hard to imagine new results on sorting. Although it is used in many programming languages, the efficiency of this algorithm has not been studied formally before our work. The fine-grain study of TimSort leads us to take into account, in our theoretical models, some modern features of computer architecture. In particular, we propose a study of the mechanisms of branch prediction. This theoretical analysis allows us to design variants of some elementary algorithms (like binary search or exponentiation by squaring) that rely on this feature to achieve better performance on recent computers. Even if uniform distributions are usually considered for the average case analysis of algorithms, it may not be the best framework for studying sorting algorithms. The choice of using TimSort in many programming languages as Java and Python is probably driven by its efficiency on almost-sorted input. To conclude this dissertation, we propose a mathematical model of non-uniform distribution on permutations, for which permutations that are almost sorted are more likely, and provide a detailed probabilistic analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

McNally, Jeffrey Mark. „Fast parallel algorithms for tri-diagonal symmetric Toeplitz systems“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0017/MQ54635.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Dias, Vieira Braga Marilia. „L'espace de solutions du tri par inversions et son utilisation dans l'analyse de réarrangements de génomes“. Lyon 1, 2009. http://n2t.net/ark:/47881/m6rv0kvd.

Der volle Inhalt der Quelle
Annotation:
Le calcul de la distance d'inversion et la recherche des séquences optimales d'inversions pour transformer un génome dans un autre quand les duplications de gènes ne sont pas acceptées sont des outils algorithmiques très utiles pour l'analyse de scénarios d'évolution réels. Néanmoins, le nombre de séquences optimales différentes est très grand. Avec un modèle proposé antérieurement pour regrouper des sous-ensembles de séquences optimales dans des classes d'équivalence, on a developpé un algorithme qui génère une séquence optimale par classe d'équivalence, sans énumérer toutes les séquences, ce qui permet de réduire la taille de l'ensemble à traiter. On propose aussi l'utilisation de différentes contraintes biologiques, comme les intervalles communs détectés initialement et progressivement, pour réduire le nombre de classes, et on montre comment utiliser ces methodes pour analyser des cas réels d'évolution. En particulier, on analyse le scénario évolutif de la bactérie Rickettsia et des chromosomes sexuels X et Y chez l'être humain. Par rapport aux résultats des études précédentes, qui se sont basées sur une seule séquence optimale, on obtient une meilleure caractérisation de ces scénarios évolutifs. Tous les algorithmes qu'on a developpés sont implémentés en java, integrés à baobabLUNA, un logiciel qui contient des outils pour manipuler des génomes et des inversions. Le téléchargement et le tutoriel de baobabLUNA sont disponibles en ligne
Calculating the reversal distance and searching for optimal sequences of reversals to transform a genome into another when gene duplications are not allowed are useful algorithmic tools to analyse real evolutionary scenarios. However, the number of sorting sequences is usually huge. Using a model previously proposed to group the sorting sequences into classes of equivalence, we developed an algorithm to direct generate the classes without enumerating all sequences, reducing thus the size of the set to be handled. We then propose the use of different biological constraints, such as the common intervals initially and progressively detected, to reduce the universe of sequences and classes, and show how to apply these methods to analyze real cases in evolution. In particular, we analyzed the evolution of the Rickettsia bacterium, and of the sexual chromosomes X and Y in human. We obtain a better characterization of the evolutionary scenarios of these genomes, with respect to the results of previous studies, that were based on a single sorting sequence. All the algorithms developed in this work are implemented, integrated to baobabLUNA, a java framework to deal with genomes and reversals. Download and tutorial for baobabLUNA are available on-line
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Algorithme de tri"

1

Beauquier, Danièle. Eléments d'algorithmique. Paris: Masson, 1992.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Siomina, Iana. Radio network planning and resource optimization: Mathematical models and algorithms for UMTS, WLANs, and ad hoc networks. Norrko ping: Department of Science and Technology, Linko ping University, 2007.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

1957-, Leporini Dino, Hrsg. Capra e calcoli: L'eterna lotta tra gli algoritmi e il caos. Bari: Laterza, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

International Conference on Tools for Artificial Intelligence (5th 1993 Boston, Mass.). Proceedings: Fifth International Conference on Tools with Artificial Intelligence - TAI '93, November 8-11, 1993, Boston, Massachusetts. Los Alamitos, Calif: IEEE Computer Society Press, 1993.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

International Conference on Tools for Artificial Intelligence (4th 1992 Arlington, Va.). Proceedings, Fourth International Conference on Tools with Artificial Intelligence: TAI '92, November 10-13, 1992, Arlington, Virginia. Los Alamitos, Calif: IEEE Computer Society Press, 1992.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

International, Conference on Tools for Artificial Intelligence (5th 1993 Boston Mass ). Proceedings: Fifth International Conference on Tools with Artificial Intelligence, TAI '93, November 8-11, 1993, Boston, Massachusetts. Los Alamitos, Calif: IEEE Computer Society Press, 1993.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Algorithmes et structures de données en langage C: C ANSI et C++. Dunod, 1996.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Tri algoritma estestvennoĭ klasteriza͡tsii obʺektov. Moskva: V͡TS AN SSSR, 1986.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Data Science: Algorithm Analysis, Approximation, Automata, Bayesian Inference, Statistics, Science,TR6 Binary Tree, Bioinformatics, Algorithms, Complexity Theory, Computability and Research. Independently Published, 2022.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Michel, Bierlaire. Optimization: Principles and Algorithms. EPFL Press, 2015. http://dx.doi.org/10.55430/6116v1mb.

Der volle Inhalt der Quelle
Annotation:
Every engineer and decision scientist must have a good mastery of optimization, an essential element in their toolkit. Thus, this articulate introductory textbook will certainly be welcomed by students and practicing professionals alike. Drawing from his vast teaching experience, the author skillfully leads the reader through a rich choice of topics in a coherent, fluid and tasteful blend of models and methods anchored on the underlying mathematical notions (only prerequisites: first year calculus and linear algebra). Topics range from the classics to some of the most recent developments in smooth unconstrained and constrained optimization, like descent methods, conjugate gradients, Newton and quasi-Newton methods, linear programming and the simplex method, trust region and interior point methods. Furthermore elements of discrete and combinatorial optimization like network optimization, integer programming and heuristic local search methods are also presented. This book presents optimization as a modeling tool that beyond supporting problem formulation plus design and implementation of efficient algorithms, also is a language suited for interdisciplinary human interaction. Readers further become aware that while the roots of mathematical optimization go back to the work of giants like Newton, Lagrange, Cauchy, Euler or Gauss, it did not become a discipline on its own until World War Two. Also that its present momentum really resulted from its symbiosis with modern computers, which made it possible to routinely solve problems with millions of variables and constraints. With his witty, entertaining, yet precise style, Michel Bierlaire captivates his readers and awakens their desire to try out the presented material in a creative mode. One of the outstanding assets of this book is the unified, clear and concise rendering of the various algorithms, which makes them easily readable and translatable into any high level programming language. ''This is an addictive book that I am very pleased to recommend.'' Prof. Thomas M. Liebling
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Algorithme de tri"

1

Al-Jubeh, Marwan, Mashhood Ishaque, Kristóf Rédei, Diane L. Souvaine und Csaba D. Tóth. „Tri-Edge-Connectivity Augmentation for Planar Straight Line Graphs“. In Algorithms and Computation, 902–12. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-10631-6_91.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Orloff, Michael A. „TRIZ Algorithms of Invention“. In ABC-TRIZ, 31–40. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-29436-0_3.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Karimov, Elshad. „Trie Data Structure“. In Data Structures and Algorithms in Swift, 67–75. Berkeley, CA: Apress, 2020. http://dx.doi.org/10.1007/978-1-4842-5769-2_9.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Zhang, Xiaojie, Bendu Bai und Ying Li. „Tri-training Based on Neural Network Ensemble Algorithm“. In Intelligent Science and Intelligent Data Engineering, 43–49. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-31919-8_6.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Yan, Zhaoteng, Nan Yu, Hui Wen, Zhi Li, Hongsong Zhu und Limin Sun. „Detecting Internet-Scale NATs for IoT Devices Based on Tri-Net“. In Wireless Algorithms, Systems, and Applications, 602–14. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-59016-1_50.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Yeh, Tzuoo-Hawn, heng-Ming Kuo, Chin-Laung Lei und Hsu-Chun Yen. „Competitive source routing on tori and meshes“. In Algorithms and Computation, 82–91. Berlin, Heidelberg: Springer Berlin Heidelberg, 1997. http://dx.doi.org/10.1007/3-540-63890-3_10.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Nguyen, Duy-Khuong, Quoc Tran-Dinh und Tu-Bao Ho. „Simplicial Nonnegative Matrix Tri-factorization: Fast Guaranteed Parallel Algorithm“. In Neural Information Processing, 117–25. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-46672-9_14.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Acharya, Anurag, Huican Zhu und Kai Shen. „Adaptive Algorithms for Cache-efficient Trie Search“. In Algorithm Engineering and Experimentation, 300–315. Berlin, Heidelberg: Springer Berlin Heidelberg, 1999. http://dx.doi.org/10.1007/3-540-48518-x_18.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Merrett, T. H., und Heping Shang. „Trie methods for representing text“. In Foundations of Data Organization and Algorithms, 130–45. Berlin, Heidelberg: Springer Berlin Heidelberg, 1993. http://dx.doi.org/10.1007/3-540-57301-1_9.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Hentschel, Claudia, Carsten Gundlach und Horst Thomas Nähler. „ARIZ-Algorithmus zur erfinderischen Problemlösung“. In TRIZ - Innovation mit System, 122–23. München, Germany: Carl Hanser Verlag GmbH & Co. KG, 2010. http://dx.doi.org/10.1007/978-3-446-42629-0_6.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Algorithme de tri"

1

Silvestri, Malvina, Maria Fabrizia Buongiorno, Giovanni Laneve, Roberto Colombo, Claudia Notarnicola, Stefano Pignatti, Vito Romaniello und Sara Venafra. „Theresa Project: Study of Algorithms for SGB-TIR Mission“. In IGARSS 2024 - 2024 IEEE International Geoscience and Remote Sensing Symposium, 3561–63. IEEE, 2024. http://dx.doi.org/10.1109/igarss53475.2024.10642352.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Wang, Yan, und Rajesh Rajamani. „Attitude Estimation With a 9-Axis MEMS Based Motion Tracking Sensor“. In ASME 2016 Dynamic Systems and Control Conference. American Society of Mechanical Engineers, 2016. http://dx.doi.org/10.1115/dscc2016-9700.

Der volle Inhalt der Quelle
Annotation:
This paper discusses the development of the attitude estimation algorithm for a MEMS based 9-axis motion tracking sensor, which includes a tri-axis accelerometer, a tri-axis gyroscope and a tri-axis magnetometer. The comparison between the Euler angles and the direction cosine matrix (DCM) based approach is presented to illustrate the advantage of DCM. It will be shown that the kinematic model for DCM can be transformed into a linear time-varying state space form, which greatly simplifies the development of the estimation algorithm. Different from the existing estimation algorithms, which incorporate a nonlinear kinematic model and the nonlinear Kalman filter, such as extended Kalman filter (EKF) or unscented Kalman filter (UKF), the non-linearity in the kinematic model is not the trouble maker anymore. Hence, global convergence can always be guaranteed. Finally, the estimation algorithm is demonstrated by using the real measurement data collected from InvenSenses MPU9250, which is one of the most popular 9-axis motion tracking sensors in the market.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Delaney, John K. „Tri-modal imaging spectroscopy of paintings (Conference Presentation)“. In Algorithms, Technologies, and Applications for Multispectral and Hyperspectral Imaging XXVI, herausgegeben von David W. Messinger und Miguel Velez-Reyes. SPIE, 2020. http://dx.doi.org/10.1117/12.2571187.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Maillet, D., und B. Gratacos. „An Effective Algorithm for Tri-phone Reorientation“. In 70th EAGE Conference and Exhibition - Workshops and Fieldtrips. European Association of Geoscientists & Engineers, 2008. http://dx.doi.org/10.3997/2214-4609.20147926.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Uang, Chii-Maw, Wen-Gong Chen und Ji-Bin Horng. „Genetic-algorithm-based tri-state neural networks“. In Photonics Asia 2002, herausgegeben von Guoguang Mu, Francis T. S. Yu und Suganda Jutamulia. SPIE, 2002. http://dx.doi.org/10.1117/12.483202.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Xiaobo Liu, H. Zhang, Zhihua Cai und Guangjun Wang. „A Tri-training Based Transfer Learning Algorithm“. In 2012 IEEE 24th International Conference on Tools with Artificial Intelligence (ICTAI 2012). IEEE, 2012. http://dx.doi.org/10.1109/ictai.2012.99.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

He, Zhenyu. „Gesture Recognition Based on Tri-Axis Accelerometer Using 1D Gabor Filters“. In 2018 9th International Symposium on Parallel Architectures, Algorithms and Programming (PAAP). IEEE, 2018. http://dx.doi.org/10.1109/paap.2018.00033.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Jaschke, Robert, Andreas Hotho, Christoph Schmitz, Bernhard Ganter und Gerd Stumme. „TRIAS--An Algorithm for Mining Iceberg Tri-Lattices“. In Sixth International Conference on Data Mining (ICDM'06). IEEE, 2006. http://dx.doi.org/10.1109/icdm.2006.162.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Machado, Victor H. R., Matheus A. Burda, Tatiana de A. Prado, Glauber Brante, Thiago A. R. Passarin, Joaquim M. Maia, Gustavo P. Pires und Daniel R. Pipa. „Simultaneous Ultrasound using Genetic Algorithm“. In 2024 51st Annual Review of Progress in Quantitative Nondestructive Evaluation. American Society of Mechanical Engineers, 2024. http://dx.doi.org/10.1115/qnde2024-134713.

Der volle Inhalt der Quelle
Annotation:
Abstract Reducing the acquisition time in nondestructive ultrasound inspection is always beneficial, especially during costly campaigns. The simultaneous emission of coded waveforms is a promising approach in this sense. However, coded sequences must have low auto-correlation sidelobes and low crosscorrelation to avoid artifacts in the resultant image. In addition, ultrasound systems usually employ a tri-state, pulse-width modulated ternary excitation scheme, which limits the waveforms that can be generated at the output of the transducer. Therefore, a joint strategy that considers both the hardware constraints and the correlation properties is crucial to obtaining good images. This paper addresses the problem of designing coded sequences with favorable auto- and cross-correlation properties for ultrasound systems that employ a tri-state excitation scheme. We implement an iterative framework resorting to a genetic algorithm with a cost function that combines auto- and cross-correlations metrics. Results show that the proposed method outperforms state-of-the-art approaches, resulting in lower auto-correlation sidelobes and low cross-correlation than the usual frequency-modulated chirps.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Pedzich, Pawel, und Lukasz Wodzynski. „APLICATION OF ELLIPTIC INTEGRALS IN MATHEMATICAL CARTOGRAPHY CALCULATIONS“. In 23rd SGEM International Multidisciplinary Scientific GeoConference 2023. STEF92 Technology, 2023. http://dx.doi.org/10.5593/sgem2023/2.1/s11.40.

Der volle Inhalt der Quelle
Annotation:
The paper describes examples of applying elliptic integrals in mathematical cartography calculations, i.e. related with cartographic projections and reference surfaces. Selected equations and algorithms used in calculating the meridian arc length on an oblate spheroid, meridian arc length on a tri-axial ellipsoid, the equation and length of the geodesic, and coordinate transformation on an oblate spheroid, have been applied. Examples of elliptic integral application for the construction of cartographic projections of a sphere, oblate spheroid and tri-axial ellipsoid are also presented. Important elements of these equations are elliptic integrals of the first, second and third kind. Methods and tools for solving these integrals are presented, as well as calculations testing the described algorithms and methods. The results have allowed to test the precision of the performed calculations and the efficiency of the applied algorithms. The calculations were made using Octave and Matlab software. Conducted study reveals that obtained results are the same regardless of the method used but some methods are more efficient or convenient to use.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Algorithme de tri"

1

Mane, Vibha, und Tom Shea. Implementation of the TRL Algorithm for Improved Impedance Measurements. Office of Scientific and Technical Information (OSTI), Mai 1993. http://dx.doi.org/10.2172/1119182.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Colestock, P., und M. Foley. A generalized TRL algorithm for s-parameter de-embedding. Office of Scientific and Technical Information (OSTI), April 1993. http://dx.doi.org/10.2172/10171677.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Baader, Franz, Stefan Borgwardt und Barbara Morawska. Dismatching and Local Disunification in EL. Technische Universität Dresden, 2014. http://dx.doi.org/10.25368/2022.210.

Der volle Inhalt der Quelle
Annotation:
Unification in Description Logics has been introduced as a means to detect redundancies in ontologies. We try to extend the known decidability results for unification in the Description Logic EL to disunification since negative constraints on unifiers can be used to avoid unwanted unifiers. While decidability of the solvability of general EL-disunification problems remains an open problem, we obtain NP-completeness results for two interesting special cases: dismatching problems, where one side of each negative constraint must be ground, and local solvability of disunification problems, where we restrict the attention to solutions that are built from so-called atoms occurring in the input problem. More precisely, we first show that dismatching can be reduced to local disunification, and then provide two complementary NP-algorithms for finding local solutions of (general) disunification problems.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Mathew, Jijo K., Christopher M. Day, Howell Li und Darcy M. Bullock. Curating Automatic Vehicle Location Data to Compare the Performance of Outlier Filtering Methods. Purdue University, 2021. http://dx.doi.org/10.5703/1288284317435.

Der volle Inhalt der Quelle
Annotation:
Agencies use a variety of technologies and data providers to obtain travel time information. The best quality data can be obtained from second-by-second tracking of vehicles, but that data presents many challenges in terms of privacy, storage requirements and analysis. More frequently agencies collect or purchase segment travel time based upon some type of matching of vehicles between two spatially distributed points. Typical methods for that data collection involve license plate re-identification, Bluetooth, Wi-Fi, or some type of rolling DSRC identifier. One of the challenges in each of these sampling techniques is to employ filtering techniques to remove outliers associated with trip chaining, but not remove important features in the data associated with incidents or traffic congestion. This paper describes a curated data set that was developed from high-fidelity GPS trajectory data. The curated data contained 31,621 vehicle observations spanning 42 days; 2550 observations had travel times greater than 3 minutes more than normal. From this baseline data set, outliers were determined using GPS waypoints to determine if the vehicle left the route. Two performance measures were identified for evaluating three outlier-filtering algorithms by the proportion of true samples rejected and proportion of outliers correctly identified. The effectiveness of the three methods over 10-minute sampling windows was also evaluated. The curated data set has been archived in a digital repository and is available online for others to test outlier-filtering algorithms.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Gattoni und Olsen. PR-179-10211-R01 Advanced Control Techniques and Sensors for Gas Engines with NSCR. Chantilly, Virginia: Pipeline Research Council International, Inc. (PRCI), Juli 2012. http://dx.doi.org/10.55274/r0010987.

Der volle Inhalt der Quelle
Annotation:
High exhaust emissions reduction efficiencies from a spark ignited (SI) internal combustion engine utilizing an NSCR catalyst system requires complex fuel control strategies. The allowable equivalence ratio operating range is very narrow where NSCR systems achieve high exhaust emissions reduction efficiencies of multiple species. Current fuel control technologies utilizing lambda sensor feedback are reported to be unable to sustain these demands for extended operation periods and when transients are introduced. Lambda sensor accuracy is the critical issue with current fuel controllers. The goal of this project was to develop a minimization control algorithm utilizing a Nitrogen Oxide (NOx) sensor installed downstream of the NSCR catalyst system for feedback air/fuel ratio control. When the engine is operated lean, NOx is produced and the NOx sensor responds accordingly. When the engine is operated rich, the NSCR catalyst system produces Ammonia. The NOx sensor has a cross sensitivity to Ammonia and responds as though it has been exposed to NOx. This behavior provides an opportunity for a unique control strategy that allows lambda sensor calibration to be ignored. Testing was performed on a 100kW rated Cummins-Onan generator set that was reconfigured to operate utilizing an electronic gas carburetor (EGC2) with lambda sensor feedback and high reduction efficiency NSCR catalyst system. The control algorithm was programmed utilizing a Labview interface that communicated with the electronic gas carburetor where the fuel trim adjustment was physically made. Improvement under steady state operation was observed. The system was also evaluated during load and fuel composition transients.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie