Academic literature on the topic 'Efficacité des algorithmes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Efficacité des algorithmes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Efficacité des algorithmes"

1

Distinguin, L., M. Blanchard, I. Rouillon, M. Parodi, and N. Loundon. "Réimplantation cochléaire chez l’enfant : efficacité des algorithmes décisionnels." Annales françaises d'Oto-rhino-laryngologie et de Pathologie Cervico-faciale 135, no. 4 (September 2018): 235–39. http://dx.doi.org/10.1016/j.aforl.2017.11.006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Berriche, Amira, Dominique Crié, and Michel Calciu. "Une Approche Computationnelle Ancrée : Étude de cas des tweets du challenge #Movember en prévention de santé masculine." Décisions Marketing N° 112, no. 4 (January 25, 2024): 79–103. http://dx.doi.org/10.3917/dm.112.0079.

Full text
Abstract:
• Objectif L’objectif de cette étude est de présenter l’approche méthodologique computationnelle ancrée qui repose sur une démarche d’interprétation par les chercheurs des thèmes détectés par les algorithmes d’intelligence artificielle (IA) puis de l’appliquer au cas #Movember. • Méthodologie Une classification non supervisée par LDA et une analyse de sentiment ont été réalisées sur 144 906 tweets provenant de différents pays participants (France, Italie, Belgique, Australie, USA, UK, Arabie Saoudite, etc.). • Résultats Les résultats montrent que le processus de l’engagement individuel au mouvement social #Movember est composé de trois principaux éléments : (1) 4 segments d’engagement individuel (sympathisants, conscients, engagés et maintiens), (2) émotions collectives (positives et négatives) et (3) facteurs cognitifs et motivationnels (calcul bénéfices-coûts, efficacité collective et identité). • Implications managériales Les résultats proposent des actions marketing adaptées à chaque segment pour aider à la fois les organisateurs du mouvement #Movember et les professionnels de santé (PS) à atteindre deux principaux objectifs : (1) dépistage et (2) notoriété, recrutement et collecte de dons, grâce au big data, par le ciblage des personnes avec antécédents familiaux. • Originalité Les recherches sur #Movember utilisent habituellement les algorithmes supervisés qui présentent plusieurs limites tels que biais de confirmation, manque de répétabilité et une exigence en temps. Ce travail utilise le modèle non supervisé LDA pour identifier des concepts latents par la machine dans une perspective computationnelle ancrée (Computational Grounded Theory, CGT).
APA, Harvard, Vancouver, ISO, and other styles
3

Geoffroy, P. A. "Les objets connectés sont-ils le futur de la sémiologie psychiatrique ?" European Psychiatry 30, S2 (November 2015): S78. http://dx.doi.org/10.1016/j.eurpsy.2015.09.353.

Full text
Abstract:
Les objets connectés de santé se multiplient et sont utilisés très largement par le grand public. Ils font maintenant partie de notre quotidien et constitue un enjeu économique majeur. Ces outils peuvent être des applications mobiles ou des objets connectés, comme des bracelets de type actimètre, podomètre, des tensiomètres, des capteurs de fréquence cardiaque, etc. [1,2]. Le traitement des données issues de ces objets connectés est-il possible à visée médicale ? S’il ne fait aucun doute que ces objets facilitent l’accès au soin, leur intérêt sémiologique et leur efficacité thérapeutique n’est que trop rarement testé scientifiquement . Cette communication évaluera les bénéfices en santé que les médecins peuvent attendre de ces objets connectés [1,4]. L’utilisation de ces objets devra répondre à des impératifs d’efficacité en matière de santé individuelle et globale, mais aussi à des impératifs éthiques, de protection des données recueillies et de sûreté sanitaire. Cette nouvelle aire de l’e-santé se traduira par le développement nécessaire de nouveaux algorithmes de dépistage, de diagnostic et de décisions thérapeutiques.
APA, Harvard, Vancouver, ISO, and other styles
4

Bibault, J. E., X. Mirabel, T. Lacornerie, C. Dewas, A. Jouin, E. Bogart, E. Tresch, and É. Lartigau. "Radiothérapie stéréotaxique des carcinomes bronchiques de petit stade chez 205 patients : efficacité, toxicité et comparaison dosimétrique de deux algorithmes de calcul de la dose." Cancer/Radiothérapie 18, no. 5-6 (October 2014): 621. http://dx.doi.org/10.1016/j.canrad.2014.07.100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Yu, Bole. "Comparative Analysis of Machine Learning Algorithms for Sentiment Classification in Amazon Reviews." Highlights in Business, Economics and Management 24 (January 22, 2024): 1389–400. http://dx.doi.org/10.54097/eqmavw44.

Full text
Abstract:
Sentiment analysis serves as a crucial approach for gauging public opinion across various sectors, including the realm of product reviews. This study focuses on the evaluation of customer sentiments in Amazon reviews using an array of machine learning algorithms—Logistic Regression, Random Forest, Convolutional Neural Networks (CNN), and Long Short-Term Memory (LSTM) networks. The methodology employed is robust, characterized by meticulous parameter tuning based on both theoretical and empirical considerations. Comparative analysis of these algorithms, grounded in accuracy and other performance metrics, offers valuable insights into their respective efficacies and limitations for sentiment analysis tasks. The findings of this study contribute to an enhanced understanding of the performance of different machine learning algorithms in sentiment classification and provide a foundation for future research in this domain.
APA, Harvard, Vancouver, ISO, and other styles
6

Mohammed, Zouiten, Chaaouan Hanae, and Setti Larbi. "Comparative study on machine learning algorithms for early fire forest detection system using geodata." International Journal of Electrical and Computer Engineering (IJECE) 10, no. 5 (October 1, 2020): 5507. http://dx.doi.org/10.11591/ijece.v10i5.pp5507-5513.

Full text
Abstract:
Forest fires have caused considerable losses to ecologies, societies and economies worldwide. To minimize these losses and reduce forest fires, modeling and predicting the occurrence of forest fires are meaningful because they can support forest fire prevention and management. In recent years, the convolutional neural network (CNN) has become an important state-of-the-art deep learning algorithm, and its implementation has enriched many fields. Therefore, a competitive spatial prediction model for automatic early detection of wild forest fire using machine learning algorithms can be proposed. This model can help researchers to predict forest fires and identify risk zonas. System using machine learning algorithm on geodata will be able to notify in real time the interested parts and authorities by providing alerts and presenting on maps based on geographical treatments for more efficacity and analyzing of the situation. This research extends the application of machine learning algorithms for early fire forest prediction to detection and representation in geographical information system (GIS) maps.
APA, Harvard, Vancouver, ISO, and other styles
7

Sel, Artun, Bilgehan Sel, Umit Coskun, and Cosku Kasnakoglu. "Comparative Study of an EKF-Based Parameter Estimation and a Nonlinear Optimization-Based Estimation on PMSM System Identification." Energies 14, no. 19 (September 25, 2021): 6108. http://dx.doi.org/10.3390/en14196108.

Full text
Abstract:
In this study, two different parameter estimation algorithms are studied and compared. Iterated EKF and a nonlinear optimization algorithm based on on-line search methods are implemented to estimate parameters of a given permanent magnet synchronous motor whose dynamics are assumed to be known and nonlinear. In addition to parameters, initial conditions of the dynamical system are also considered to be unknown, and that comprises one of the differences of those two algorithms. The implementation of those algorithms for the problem and adaptations of the methods are detailed for some other variations of the problem that are reported in the literature. As for the computational aspect of the study, a convexity study is conducted to obtain the spherical neighborhood of the unknown terms around their correct values in the space. To obtain such a range is important to determine convexity properties of the optimization problem given in the estimation problem. In this study, an EKF-based parameter estimation algorithm and an optimization-based method are designed for a given nonlinear dynamical system. The design steps are detailed, and the efficacies and shortcomings of both algorithms are discussed regarding the numerical simulations.
APA, Harvard, Vancouver, ISO, and other styles
8

Shenify, Mohamed, Fokrul Alom Mazarbhuiya, and A. S. Wungreiphi. "Detecting IoT Anomalies Using Fuzzy Subspace Clustering Algorithms." Applied Sciences 14, no. 3 (February 2, 2024): 1264. http://dx.doi.org/10.3390/app14031264.

Full text
Abstract:
There are many applications of anomaly detection in the Internet of Things domain. IoT technology consists of a large number of interconnecting digital devices not only generating huge data continuously but also making real-time computations. Since IoT devices are highly exposed due to the Internet, they frequently meet with the challenges of illegitimate access in the form of intrusions, anomalies, fraud, etc. Identifying these illegitimate accesses can be an exciting research problem. In numerous applications, either fuzzy clustering or rough set theory or both have been successfully employed. As the data generated in IoT domains are high-dimensional, the clustering methods used for lower-dimensional data cannot be efficiently applied. Also, very few methods were proposed for such applications until today with limited efficacies. So, there is a need to address the problem. In this article, mixed approaches consisting of nano topology and fuzzy clustering techniques have been proposed for anomaly detection in the IoT domain. The methods first use nano topology of rough set theory to generate CORE as a subspace and then employ a couple of well-known fuzzy clustering techniques on it for the detection of anomalies. As the anomalies are detected in the lower dimensional space, and fuzzy clustering algorithms are involved in the methods, the performances of the proposed approaches improve comparatively. The effectiveness of the methods is evaluated using time-complexity analysis and experimental studies with a synthetic dataset and a real-life dataset. Experimentally, it has been found that the proposed approaches outperform the traditional fuzzy clustering algorithms in terms of detection rates, accuracy rates, false alarm rates and computation times. Furthermore, nano topological and common Mahalanobis distance-based fuzzy c-means algorithm (NT-CM-FCM) is the best among all traditional or nano topology-based algorithms, as it has accuracy rates of 84.02% and 83.21%, detection rates of 80.54% and 75.37%, and false alarm rates of 7.89% and 9.09% with the KDDCup’99 dataset and Kitsune Network Attack Dataset, respectively.
APA, Harvard, Vancouver, ISO, and other styles
9

Mortazavi, Amin, Amir Rashidi, Mostafa Ghaderi-Zefrehei, Parham Moradi, Mohammad Razmkabir, Ikhide G. Imumorin, Sunday O. Peters, and Jacqueline Smith. "Constraint-Based, Score-Based and Hybrid Algorithms to Construct Bayesian Gene Networks in the Bovine Transcriptome." Animals 12, no. 10 (May 19, 2022): 1305. http://dx.doi.org/10.3390/ani12101305.

Full text
Abstract:
Bayesian gene networks are powerful for modelling causal relationships and incorporating prior knowledge for making inferences about relationships. We used three algorithms to construct Bayesian gene networks around genes expressed in the bovine uterus and compared the efficacies of the algorithms. Dataset GSE33030 from the Gene Expression Omnibus (GEO) repository was analyzed using different algorithms for hub gene expression due to the effect of progesterone on bovine endometrial tissue following conception. Six different algorithms (grow-shrink, max-min parent children, tabu search, hill-climbing, max-min hill-climbing and restricted maximum) were compared in three higher categories, including constraint-based, score-based and hybrid algorithms. Gene network parameters were estimated using the bnlearn bundle, which is a Bayesian network structure learning toolbox implemented in R. The results obtained indicated the tabu search algorithm identified the highest degree between genes (390), Markov blankets (25.64), neighborhood sizes (8.76) and branching factors (4.38). The results showed that the highest number of shared hub genes (e.g., proline dehydrogenase 1 (PRODH), Sam-pointed domain containing Ets transcription factor (SPDEF), monocyte-to-macrophage differentiation associated 2 (MMD2), semaphorin 3E (SEMA3E), solute carrier family 27 member 6 (SLC27A6) and actin gamma 2 (ACTG2)) was seen between the hybrid and the constraint-based algorithms, and these genes could be recommended as central to the GSE33030 data series. Functional annotation of the hub genes in uterine tissue during progesterone treatment in the pregnancy period showed that the predicted hub genes were involved in extracellular pathways, lipid and protein metabolism, protein structure and post-translational processes. The identified hub genes obtained by the score-based algorithms had a role in 2-arachidonoylglycerol and enzyme modulation. In conclusion, different algorithms and subsequent topological parameters were used to identify hub genes to better illuminate pathways acting in response to progesterone treatment in the bovine uterus, which should help with our understanding of gene regulatory networks in complex trait expression.
APA, Harvard, Vancouver, ISO, and other styles
10

Abdul Latiff, Liza, Huda Adibah Mohd Ramli, Ani Liza Asnawi, and Nur Haliza Abdul Wahab. "A STUDY ON CHANNEL AND DELAY-BASED SCHEDULING ALGORITHMS FOR LIVE VIDEO STREAMING IN THE FIFTH GENERATION LONG TERM EVOLUTION-ADVANCED." IIUM Engineering Journal 23, no. 1 (January 4, 2022): 233–43. http://dx.doi.org/10.31436/iiumej.v23i1.2115.

Full text
Abstract:
This paper investigates the performance of a number of channel and delay-based scheduling algorithms for an efficient QoS (Quality of Service) provision with more live video streaming users over the Fifth Generation Long-Term Evolution-Advanced (5G LTE-A) network. These algorithms were developed for use in legacy wireless networks and minor changes were made to enable these algorithms to perform packet scheduling in the downlink 5G LTE-A. The efficacies of the EXP and M-LWDF algorithms in maximizing the number of live video streaming users at the desired transmission reliability, minimizing the average network delay and maximizing network throughput, are shown via simulations. As the M-LWDF has a simpler mathematical equation as compared to the EXP, it is more favoured for implementation in the complex downlink 5G LTE-A. ABSTRAK: Kertas ini menyiasat prestasi sebilangan saluran dan algoritma penjadualan berdasarkan kelewatan untuk penyediaan QoS (Kualiti Perkhidmatan) yang cekap dengan banyak pengguna video secara langsung melalui rangkaian Generasi Kelima Long-Term Evolution Advanced (5G LTE-A). Algoritma-algoritma yang disiasat di dalam kertas ini dicadangkan untuk digunakan dalam generasi rangkaian tanpa wayar yang lama dan sedikit perubahan dibuat untuk membolehkan algoritma ini menyokong penjadualan paket dalam downlink 5G LTE-A. Keberkesanan EXP dan M-LWDF algoritma dalam memaksimumkan jumlah pengguna pada kebolehpercayaan transmisi yang diinginkan dari streaming video secara langsung, meminimumkan kelewatan rangkaian, dan memaksimumkan truput rangkaian ditunjukkan melalui simulasi. Namun, dengan M-LWDF mempunyai formula matematik yang mudah dibandingkan dengan EXP, ia lebih sesuai untuk digunakan dalam downlink 5G LTE-A yang lebih kompleks.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Efficacité des algorithmes"

1

Zhang, Jian Ping. "Contrôle de flux pour le service ABR des réseaux ATM : équité et efficacité." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0010.

Full text
Abstract:
Cette thèse concerne la conception et la validation de plusieurs mécanismes de contrôle de flux pour le service ABR dans les réseaux ATM. L'algorithme max-min représente une des méthodes les plus utilisées pour offrir le critère de l'équité entre les utilisateurs. La première contribution de cette thèse consiste à étendre l'algorithme max-min à une version pondérée baptisée WMM. Selon cette extension, nous avons donc proposé deux algorithmes distribués : l'algorithme mico et l'algorithme mclf. Ces deux derniers améliorent considérablement les performances de l'algorithme erica a savoir l'équité entre les utilisateurs. En présence des sources ABR sporadiques, L'utilisation conjointe des comportements de source, des algorithmes de commutateur et des comportements use-it-or-lose-it définis par l'ATM forum, ne permet pas de contrôler efficacement la sporadicité du trafic en provenance de ces sources. Elle entraîne, par conséquent, une surestimation de l'allocation de la bande passante aux sources ABR. Dans cette perspective, nous avons conçu l'algorithme iaaa qui calcule l'ARC en fonction de l'état actuel du trafic afin de réduire l'effet provoqué par la sporadicité. Cette thèse a été achevée par la mise en oeuvre de deux algorithmes rca et rca#+. Ils offrent la possibilité d'acheminer un trafic de type vidéo en utilisant le service ABR. Pour ce faire, une équation entre le paramètre de quantification q et le volume de l'information à transmettre a été ajustée. Cette étude s'est basée sur une allocation équitable des sources ABR, sur un contrôle de débit du codeur vidéo, ainsi que sur une diminution du taux de réduction de l'image. Ceci a permis un meilleur délai de transfert tout en gardant une qualité d'image satisfaisante. Ces différents algorithmes ont fait l'objet d'une étude de simulation destinée à valider leurs performances.
APA, Harvard, Vancouver, ISO, and other styles
2

Petit, Franck. "Efficacité et simplicité dans les algorithmes distribués auto-stabilisants de parcours en profondeur de jeton." Amiens, 1998. http://www.theses.fr/1998AMIE0103.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Hamdaoui, Mohamed. "Optimisation multicritère de l’efficacité propulsive de mini-drônes à ailes battantes par algorithmes évolutionnaires." Paris 6, 2009. http://www.theses.fr/2009PA066448.

Full text
Abstract:
L'optimisation multicritère de la cinématique de battement d'aile d'un mini drône à ailes battantes est réalisée en vol de croisière. L'objectif est, pour différentes famillesde cinématiques et pour différentes vitesses d'avancement, de trouver des solutions maximisant l'efficacité propulsive, minimisant l'écart à la portance cible et minimisant lemoment aérodynamique. Nous avons choisi les algorithmes évolutionnaires pour résoudre ce problème multicritère pour leur simplicité d'implantation, leur flexibilité et leur bon rapport qualité des résultats/coût de calcul. En raison de la nature multicritère du problème, il existe un ensemble de solutions optimales et non pas une unique solution au problème, ce qui pose la question de la manière de visualiser, d'analyser et d'extraire une solution satisfaisante parmi le groupe de solutions Pareto optimales. Nous avons identifié des méthodes simples susceptibles d'aider à accomplir cette tâche, la Scatter-Plot Matrix Method pour visualiser les surfaces et ensembles de Pareto, l'utilisation d'une régression multivariée pour établir le lien entre paramètres cinématiques et critères optimisés, la méthode des normes L^p pour identifier une solution compromis au sein de la surface de Pareto, les arbres de décision pour trouver les paramètres de la cinématique auxquels le voisinage de la solution compromis est sensible et les cartes de Kohonen pour étudier la structure de ce voisinage. Ces différents outils nous ont permis, pour chaque famille de cinématiques (dièdre, dièdre et tangage, dièdre et tangage à deux panneaux), d'identifier une solution compromis et les paramètres cinématiques qui impactent le plus le voisinage du point compromis. Les caractéristiques de chaque solution compromis ont été comparées à des mesures de puissance et de coefficients de traînée faites sur des oiseaux en vol de croisière, et la légitimité d'appliquer un modèle linéarisé dans le cas de cette solution compromis est mise à l'épreuve en calculant des nombres adimensionels caractéristiques comme le nombre de Strouhal ou la fréquence réduite dont les petites valeurs attestent d'un cas favorable à une approche linéarisée. Puis, la comparaison de la fréquence de battement d'aile obtenue à celle d'un oiseau géométriquement similaire est faite, et elle montre que plus la cinématique est riche plus cette fréquence de battement se rapproche de celle de l'oiseau en question, ce qui constitue un résultat encourageant pour notre approche.
APA, Harvard, Vancouver, ISO, and other styles
4

Doncel, Josu. "Efficiency of distributed queueing games and of path discovery algorithms." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0007/document.

Full text
Abstract:
Cette thèse porte sur l'efficacité des algorithmes distribués de partage des ressources et des algorithmes de découvert de chemin en ligne. Dans la première partie de la thèse, nous analysons un jeu dans lequel les utilisateurs paient pour utiliser une ressource partagée. La ressource allouée à un utilisateur est directement proportionnel à son paiement. Chaque utilisateur veut minimiser son paiement en assurant une certaine qualité de service. Ce problème est modélisé comme un jeu non-coopératif de partage des ressources. A cause du manque des expressions analytiques de la discipline de file d'attente sous-jacente, nous pouvons résoudre le jeu que sous certaines hypothèses. Pour le cas général, nous développons une approximation basée sur un résultat fort trafic et nous validons la précision de l'approximation numériquement.Dans la deuxième partie, nous étudions l'efficacité des jeux de balance de charge, c'est à dire, nous comparons la perte de performance de routage non coopératif décentralisé avec un routage centralisé. Nous montrons que le PoA est une mesure très pessimiste car il est atteint que dans des cas pathologiques. Dans la plupart des scénarios, les implémentations distribués de balance de charge effectuent presque aussi bien que la mise en œuvre centralisée optimale.Dans la dernière partie de la thèse, nous analysons problème de découverte chemin optimal dans les graphes complets. En ce problème, les valeurs des arêtes sont inconnues, mais peuvent être interrogés. Pour une fonction donnée qui est appliquée à des chemins, l'objectif est de trouver un meilleur chemin de valeur à partir d'une source vers une destination donnée interrogation le plus petit nombre de bords. Nous vous proposons le rapport de requête en tant que mesure de l'efficacité des algorithmes qui permettent de résoudre ce problème. Nous prouvons une limite inférieure pour ne importe quel algorithme qui résout ce problème et nous avons proposé un algorithme avec un rapport de requête strictement inférieure à 2
This thesis deals with the efficiency of distributed resource sharing algorithms and of online path discovery algorithms. In the first part of the thesis, we analyse a game in which users pay for using a shared resource. The allocated resource to a user is directly proportional to its payment. Each user wants to minimize its payment while ensuring a certain quality of service. This problem is modelled as a non-cooperative resource-sharing game. Due to lack of analytical expressions for the underlying queuing discipline, we are able to give the solution of the game only under some assumptions. For the general case, we develop an approximation based on a heavy-traffic result and we validate the accuracy of the approximation numerically. In the second part, we study the efficiency of load balancing games, i.e., we compare the loss in performance of noncooperative decentralized routing with a centralized routing. We show that the PoA is very pessimistic measure since it is achieved in only pathological cases. In most scenarios, distributed implementations of load-balancing perform nearly as well as the optimal centralized implementation. In the last part of the thesis, we analyse the optimal path discovery problem in complete graphs. In this problem, the values of the edges are unknown but can be queried. For a given function that is applied to paths, the goal is to find a best value path from a source to a given destination querying the least number of edges. We propose the query ratio as efficiency measure of algorithms that solve this problem. We prove a lower-bound for any algorithm that solves this problem and we proposed an algorithm with query ratio strictly less than 2
APA, Harvard, Vancouver, ISO, and other styles
5

Belmega, Elena Veronica. "Problèmes d'allocations de ressouces dans les réseaux MIMO sans fil distribués." Paris 11, 2010. http://www.theses.fr/2010PA112259.

Full text
Abstract:
Dans ce manuscrit de thèse, l'objectif principal est d'étudier les réseaux sans fil dans lesquels les nœuds terminaux sont équipés de plusieurs antennes. Plusieurs thèmes d'actualité, tels que les réseaux intelligents auto-optimisants, les communications dites green ou vertes et algorithmes distribués sont abordés. Dans ce but, nous utilisons une gamme diversifiée d'outils de la théorie des jeux, théorie de l'information, théorie des matrices aléatoires et théorie de l'apprentissage. Nous commençons notre analyse par l'étude du problème d'allocation de puissance dans les réseaux MIMO distribués. Les émetteurs sont censés être autonomes et capables de gérer leurs puissances afin d'optimiser leur taux de Shannon atteignables. Le cadre des jeux non-coopératifs est utilisé pour étudier la solution de ce problème. Des algorithmes itératifs qui convergent vers la solution optimale donnée par l'équilibre de Nash sont proposés. Deux approches différentes sont appliquées : des algorithmes basés sur les meilleures réponses et des algorithmes d'apprentissage par renforcement. Un autre problème majeur dans les réseaux sans fil est lié à la question de l'efficacité énergétique. Afin d'atteindre des débits de transmission élevés, la consommation d'énergie est également élevée. Dans les réseaux où la consommation d'énergie est une question critique, le débit de Shannon atteignable n'est plus une métrique de performance adaptée. C'est pourquoi nous abordons également le problème de l'optimisation d'une fonction d'efficacité énergétique
Ln this thesis manuscript, the main objective is to study the wireless networks where the node terminals are equipped with multiple antennas. Rising topics such as self-optimizing networks, green communications and distributed algorithms have been approached mainly from a theoretical perspective. To this aim, we have used a diversified spectrum of tools from Game Theory, Information Theory, Random Matrix Theory and Learning Theory in Games. We start our analysis with the study of the power allocation problem in distributed networks. The transmitters are assumed to be autonomous and capable of allocating their powers to optimize their Shannon achievable rates. A non-cooperative game theoretical framework is used to investigate the solution to this problem. Distributed algorithms which converge towards the optimal solution, i. E. The Nash equilibrium, have been proposed. Two different approaches have been applied: iterative algorithms based on the best-response correspondence and reinforcement learning algorithms. Another major issue is related to the energy-efficiency aspect of the communication. Ln order to achieve high transmission rates, the power consumption is also high. Ln networks where the power consumption is the bottleneck, the Shannon achievable rate is no longer suitable performance metric. This is why we have also addressed the problem of optimizing an energy-efficiency function
APA, Harvard, Vancouver, ISO, and other styles
6

Tan, Pauline. "Précision de modèle et efficacité algorithmique : exemples du traitement de l'occultation en stéréovision binoculaire et de l'accélération de deux algorithmes en optimisation convexe." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX092/document.

Full text
Abstract:
Le présent manuscrit est composé de deux parties relativement indépendantes.La première partie est consacrée au problème de la stéréovision binoculaire, et plus particulièrement au traitement de l'occultation. En partant d'une analyse de ce phénomène, nous en déduisons un modèle de régularité qui inclut une contrainte convexe de visibilité. La fonctionnelle d'énergie qui en résulte est minimisée par relaxation convexe. Les zones occultées sont alors détectées grâce à la pente horizontale de la carte de disparité avant d'être densifiées.Une autre méthode gérant l'occultation est la méthode des graph cuts proposée par Kolmogorov et Zabih. L'efficacité de cette méthode justifie son adaptation à deux problèmes auxiliaires rencontrés en stéréovision, qui sont la densification de cartes éparses et le raffinement subpixellique de cartes pixelliques.La seconde partie de ce manuscrit traite de manière plus générale de deux algorithmes d'optimisation convexe, pour lequels deux variantes accélérées sont proposées. Le premier est la méthode des directions alternées (ADMM). On montre qu'un léger relâchement de contraintes dans les paramètres de cette méthode permet d'obtenir un taux de convergence théorique plus intéressant.Le second est un algorithme de descentes proximales alternées, qui permet de paralléliser la résolution approchée du problème Rudin-Osher-Fatemi (ROF) de débruitage pur dans le cas des images couleurs. Une accélération de type FISTA est également proposée
This thesis is splitted into two relatively independant parts. The first part is devoted to the binocular stereovision problem, specifically to the occlusion handling. An analysis of this phenomena leads to a regularity model which includes a convex visibility constraint. The resulting energy functional is minimized by convex relaxation. The occluded areas are then detected thanks to the horizontal slope of the disparity map and densified. Another method with occlusion handling was proposed by Kolmogorov and Zabih. Because of its efficiency, we adapted it to two auxiliary problems encountered in stereovision, namely the densification of sparse disparity maps and the subpixel refinement of pixel-accurate maps.The second part of this thesis studies two convex optimization algorithms, for which an acceleration is proposed. The first one is the Alternating Direction Method of Multipliers (ADMM). A slight relaxation in the parameter choice is shown to enhance the convergence rate. The second one is an alternating proximal descent algorithm, which allows a parallel approximate resolution of the Rudin-Osher-Fatemi (ROF) pure denoising model, in color-image case. A FISTA-like acceleration is also proposed
APA, Harvard, Vancouver, ISO, and other styles
7

Machart, Pierre. "Coping with the Computational and Statistical Bipolar Nature of Machine Learning." Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00771718.

Full text
Abstract:
L'Apprentissage Automatique tire ses racines d'un large champ disciplinaire qui inclut l'Intelligence Artificielle, la Reconnaissance de Formes, les Statistiques ou l'Optimisation. Dès les origines de l'Apprentissage, les questions computationelles et les propriétés en généralisation ont toutes deux été identifiées comme centrales pour la discipline. Tandis que les premières concernent les questions de calculabilité ou de complexité (sur un plan fondamental) ou d'efficacité computationelle (d'un point de vue plus pratique) des systèmes d'apprentissage, les secondes visent a comprendre et caractériser comment les solutions qu'elles fournissent vont se comporter sur de nouvelles données non encore vues. Ces dernières années, l'émergence de jeux de données à grande échelle en Apprentissage Automatique a profondément remanié les principes de la Théorie de l'Apprentissage. En prenant en compte de potentielles contraintes sur le temps d'entraînement, il faut faire face à un compromis plus complexe que ceux qui sont classiquement traités par les Statistiques. Une conséquence directe tient en ce que la mise en place d'algorithmes efficaces (autant en théorie qu'en pratique) capables de tourner sur des jeux de données a grande échelle doivent impérativement prendre en compte les aspects statistiques et computationels de l'Apprentissage de façon conjointe. Cette thèse a pour but de mettre à jour, analyser et exploiter certaines des connections qui existent naturellement entre les aspects statistiques et computationels de l'Apprentissage. Plus précisément, dans une première partie, nous étendons l'analyse en stabilité, qui relie certaines propriétés algorithmiques aux capacités de généralisation des algorithmes d'apprentissage, la matrice de confusion, que nous suggérons comme nouvelle mesure de performance (fine). Dans une seconde partie, nous présentons un nouvelle approche pour apprendre une fonction de régression basée sur les noyaux, où le noyau appris sert directement la tâche de régression, et qui exploite la structure du problème pour offrir une procédure d'optimisation peu coûteuse. Finalement, nous étudions le compromis entre vitesse de convergence et coût computationel lorsque l'on minimise une fonction composite avec des méthodes par gradient-proximal inexact. Dans ce contexte, nous identifions des stratégies d'optimisation qui sont computationellement optimales.
APA, Harvard, Vancouver, ISO, and other styles
8

Djeddour, Khédidja. "Estimation récursive du mode et de la valeur modale d'une densité : test d'ajustement de loi." Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0016.

Full text
Abstract:
Ce travail est composé de trois parties. Les deux premières parties portent sur le problème de l'estimation jointe du mode et de la valeur modale d'une densité de probabilité. Les estimateurs étudiés sont des estimateurs récursifs. Celui du mode a été introduit par Tsybakov (1900) ; nous introduisons, au premier chapitre, un estimateur récursif de la valeur modale. L'objectif principal de la première partie de cette thèse est d'étudier le comportement en loi asymptotique de ce couple d'estimateurs récursifs. Cette étude nécessite l'analyse du comportement asymptotique d'une classe générale d'algorithmes stochastiques, analyse que nous éclairons ici avec le point de vue non paramétrique. Pour que le couple d'estimateurs récursifs du mode et de la valeur modale converge à la vitesse optimale, le pas des algorithmes qui définissent ces estimateurs doit être choisi en fonction d'un paramètre inconnu. Pour contourner ce problème, nous introduisons, dans la deuxième partie de cettte thèse, le principe de moyennisation des algorithmes stochastiques ; nous proposons ainsi une procédure simple pour construire un couple d'estimateurs du mode et de la valeur modale qui converge à la vitesse optimale. La troisième partie est indépendante des deux premières. Elle est consacrée à la construction d'un test d'ajustement de loi par une méthode de série de Fourier.
APA, Harvard, Vancouver, ISO, and other styles
9

Beltaief, Slim. "Algorithmes optimaux de traitement de données pour des systèmes complexes d'information et télécommunication dans un environnement incertain." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR056/document.

Full text
Abstract:
Ce travail est consacré au problème d'estimation non paramétrique dans des modèles de régression en temps continu. On considère le problème d'estimation d'une fonction inconnue S supposée périodique. Cette estimation est basée sur des observations générées par un processus stochastique; ces observations peuvent être en temps continu ou discret. Pour ce faire, nous construisons une série d'estimateurs par projection et nous approchons la fonction inconnue S par une série de Fourier finie. Dans cette thèse, nous considérons le problème d'estimation dans le cadre adaptatif, c'est-à-dire le cas où la régularité de la fonction S est inconnue. Pour ce problème, nous développons une nouvelle méthode d'adaptation basée sur la procédure de sélection de modèle proposée par Konev et Pergamenshchikov (2012). Tout d'abord, cette procédure nous donne une famille d'estimateurs ; après nous choisissons le meilleur estimateur possible en minimisant une fonction coût. Nous donnons également une inégalité d'Oracle pour le risque de nos estimateurs et nous donnons la vitesse de convergence minimax
This thesis is devoted to the problem of non parametric estimation for continuous-time regression models. We consider the problem of estimating an unknown periodoc function S. This estimation is based on observations generated by a stochastic process; these observations may be in continuous or discrete time. To this end, we construct a series of estimators by projection and thus we approximate the unknown function S by a finite Fourier series. In this thesis we consider the estimation problem in the adaptive setting, i.e. in situation when the regularity of the fonction S is unknown. In this way, we develop a new adaptive method based on the model selection procedure proposed by Konev and Pergamenshchikov (2012). Firstly, this procedure give us a family of estimators, then we choose the best possible one by minimizing a cost function. We give also an oracle inequality for the risk of our estimators and we give the minimax convergence rate
APA, Harvard, Vancouver, ISO, and other styles
10

Luo, Jia. "Algorithmes génétiques parallèles pour résoudre des problèmes d'ordonnancement de tâches dynamiques de manière efficace en prenant en compte l'énergie." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30001.

Full text
Abstract:
Du fait de nouvelles législations gouvernementales et de la prise de conscience environnementale des consommateurs ainsi que de la hausse du coût de l'énergie, l'efficacité énergétique est devenue un paramètre essentiel des processus industriels ces dernières années. La plupart des avancées en ce qui concerne les économies d'énergie dans les problèmes d'ordonnancement se sont focalisées sur l'ordonnancement statique. Mais en fait, ces problèmes sont dynamiques dans le monde réel. Dans cette thèse, deux problèmes d'ordonnancement dynamique efficace énergiquement sont étudiés. Le Modèle I analyse le retard total et la durée de production avec une limite de puissance tout en tenant compte d'un flux dynamique de nouvelles tâches. Un rééchelonnement complet périodique est adopté. Le Modèle II vise à réduire au minimum le retard total et la consommation d'énergie totale dans le traitement des tâches en tenant compte de nouvelles tâches prioritaires. Une approche basée sur la réparation de la planification des événements est utilisée pour traiter la mise à jour de l'ordonnancement. Comme un nouveau plan d'ordonnancement adéquat doit être obtenu dans un temps de réponse court dans un environnement dynamique, deux Algorithmes Génétiques parallèles (AG) sont proposés pour résoudre ces deux modèles. L'algorithme parallèle AG I est une méthode hybride basée sur CUDA consistant en un modèle AG insulaire au niveau supérieur et un modèle AG fin, au niveau inférieur. Il combine les métriques de deux couches hiérarchiques et tire pleinement parti des capacités de calcul de la plateforme CUDA. L'algorithme AG II est conçu avec une double hétérogénéité qui résulte de l'utilisation d'un AG cellulaire parallèle et d'un pseudo AG parallèle. Avec ces deux structures différentes, les ilots augmentent la diversité de la population et peuvent être simultanément parallélisés sur des GPU et un processeur multi-cœur. Enfin, des solutions numériques sont présentées et analysées ; elles montrent que nos approches peuvent non seulement résoudre les problèmes de manière flexible, mais également obtenir des solutions avantageuses et réduire les temps de calcul
Due to new government legislation, customers' environmental concerns and continuously rising cost of energy, energy efficiency is becoming an essential parameter of industrial manufacturing processes in recent years. Most efforts considering energy issues in scheduling problems have focused on static scheduling. But in fact, scheduling problems are dynamic in the real world with uncertain new arrival jobs after the execution time. In this thesis, two energy efficient dynamic scheduling problems are studied. Model I analyzes the total tardiness and the makespan with a peak power limitation while considering the flexible flow shop with new arrival jobs. A periodic complete rescheduling approach is adopted to represent the optimization problem. Model II concerns an investigation into minimizing total tardiness and total energy consumption in the job shop with new urgent arrival jobs. An event driven schedule repair approach is utilized to deal with the updated schedule. As an adequate renewed scheduling plan needs to be obtained in a short response time in dynamic environment, two parallel Genetic Algorithms (GAs) are proposed to solve these two models respectively. The parallel GA I is a CUDA-based hybrid model consisting of an island GA at the upper level and a fine-grained GA at the lower level. It combines metrics of two hierarchical layers and takes full advantage of CUDA's compute capability. The parallel GA II is a dual heterogeneous design composed of a cellular GA and a pseudo GA. The islands with these two different structures increase the population diversity and can be well parallelized on GPUs simultaneously with multi-core CPU. Finally, numerical experiments are conducted and show that our approaches can not only solve the problems flexibly, but also gain competitive results and reduce time requirements
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Efficacité des algorithmes"

1

BELMONTE, Romain, Pierre TIRILLY, Ioan Marius BILASCO, Nacim IHADDADENE, and Chaabane DJERABA. "Efficacité de la détection des points de repères faciaux." In Analyse faciale en conditions non contrôlées, 75–103. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9111.ch2.

Full text
Abstract:
La détection des points de repère faciaux est une étape de prétraitement courante et souvent cruciale dans le contexte de l'analyse faciale. Ce chapitre se concentre sur deux ensembles de données largement utilisés, 300W pour les images fixes et 300VW pour les vidéos. Les ensembles de données et les mesures d'évaluation sont fondamentaux pour entraîner et démontrer la validité des algorithmes. Ce chapitre passe en revue les principaux ensembles de données capturés dans des conditions non contrôlées. Le premier benchmark couvre les algorithmes basés sur l'image et peut notamment être utilisé pour comparer les approches traditionnelles et celles basées sur l’apprentissage profond dans des conditions simples à difficiles. Dans le second benchmark, les algorithmes basés sur la vidéo sont inclus pour fournir une comparaison supplémentaire entre les approches statiques et dynamiques. Dans le troisième et dernier benchmark, un nouvel ensemble de données avec des annotations plus riches, SNaP-2DFe, a été introduit, ce qui permet une analyse détaillée des principaux défis.
APA, Harvard, Vancouver, ISO, and other styles
2

Dutta, Palash. "Human Health Risk Assessment via Amalgamation of Probability and Fuzzy Numbers." In Emerging Trends and Applications in Cognitive Computing, 99–123. IGI Global, 2019. http://dx.doi.org/10.4018/978-1-5225-5793-7.ch005.

Full text
Abstract:
This chapter presents an approach to combine probability distributions with imprecise (fuzzy numbers) parameters (mean and standard deviation) as well as fuzzy numbers (FNs) of various types and shapes within the same framework. The amalgamation of probability distribution and fuzzy numbers are done by generating three algorithms. Human health risk assessment is performed through the proposed algorithms. It is found that the chapter provides an exertion to perform human health risk assessment in a specific manner that has more efficacies because of its capacity to exemplify uncertainties of risk assessment model in its own fashion. It affords assistance to scientists, environmentalists, and experts to perform human health risk assessment providing better efficiency to the output.
APA, Harvard, Vancouver, ISO, and other styles
3

Kumari, Rashmi, Subhranil Das, Raghwendra Kishore Singh, Anvi Kohli, Arya Sunil, and Arushi Dadhich. "Getting Started With Computational Drug Discovery." In Converging Pharmacy Science and Engineering in Computational Drug Discovery, 235–58. IGI Global, 2024. http://dx.doi.org/10.4018/979-8-3693-2897-2.ch012.

Full text
Abstract:
This manuscript explores the transformative impact of computational drug discovery in pharmaceutical research, emphasizing the integration of algorithms, simulations, and modeling to expedite the development of therapeutic agents. It highlights the multidisciplinary nature of this approach, leveraging insights from computer science, chemistry, biology, and pharmacology. The narrative underscores the crucial role of artificial intelligence (AI) and machine learning (ML) technologies in enhancing the efficiency and precision of drug discovery. These technologies enable the analysis of complex biological data, facilitating the identification of novel drug targets and the prediction of drug efficacies and side effects with unprecedented accuracy. Additionally, the chapter discusses the significance of computational methodologies in improving the speed, cost-effectiveness, and success rates of developing new drugs. Through high-throughput screening and detailed molecular analysis, these methods allow for the rapid identification of promising compounds and offer insights into disease mechanisms, paving the way for targeted therapeutic interventions. This overview aims to showcase the critical role of computational drug discovery in advancing personalized, effective, and patient-centered treatments, marking a significant shift towards more innovative and efficient drug development processes.
APA, Harvard, Vancouver, ISO, and other styles
4

Shahid, Imran, and Qaiser Jabeen. "Treatment Recommendations for Harder-to-Cure and Vulnerable Populations." In Hepatitis C Virus-Host Interactions and Therapeutics: Current Insights and Future Perspectives, 203–30. BENTHAM SCIENCE PUBLISHERS, 2023. http://dx.doi.org/10.2174/9789815123432123010011.

Full text
Abstract:
Certain hepatitis C-infected populations are still challenging to treat in the era of all-oral interferon-free direct-acting antivirals (IFN-free DAAs), which are highly efficacious, well-tolerable, and relatively safe in treated individuals. Such difficult-to-treat patients were also challenging even to manage with pegylated interferon (PEG-IFN) plus a nucleoside analog ribavirin (RBV) once known as the “gold standard of hepatitis C care”. People infected with hepatitis C genotype 3, decompensated cirrhosis, individuals with co-infection status (e.g., HCV/HBV, HCV/HIV, HCV/CKD), hepatitis C patients with induction of hepatocellular carcinoma (HCC), previous treatment failure with PEG-IFN plus RBV or DAAs failures, and viral relapse patients with the use of one or more DAA combinations are even compromised to achieve higher SVR rates with IFN-free DAAs. Similarly, some DAAs have sub optimal clinical efficacies in harder-to-cure populations and some are contraindicated and can worsen hepatitis C-associated hepatic pathological states if administered without drug monitoring. Interestingly, DAAs in clinical trials conducted for their administration approvals demonstrated to achieve satisfactory SVRs in hepatitis C-infected special populations. Recently, limited data from real-world cohorts depict the excellent efficacy and safety of IFN-free DAAs in real-life clinical situations, similar to clinical trials. It is still uncertain whether either viral or host factors are responsible for the trivial effectiveness of DAAs in such populations. In this chapter, we will discuss the management of harder-to-treat special populations with DAAs by exploring some real-world cohort data as well as the treatment algorithms, guidelines, and recommendations for those patients in real-world clinical settings.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Efficacité des algorithmes"

1

Williams, Glen, Lucas Puentes, Jacob Nelson, Jessica Menold, Conrad Tucker, and Christopher McComb. "Comparing Attribute- and Form-Based Machine Learning Techniques for Component Prediction." In ASME 2020 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference. American Society of Mechanical Engineers, 2020. http://dx.doi.org/10.1115/detc2020-22256.

Full text
Abstract:
Abstract Online data repositories provide designers and engineers with a convenient source of data. Over time, the wealth and type of readily-available data within online repositories has greatly expanded. This data increase permits new uses for machine learning approaches which rely on large, high-dimensional datasets. However, a comparison of the efficacies of attribute-based data, which lends itself well to traditional machine learning algorithms, and form-based data, which lends itself to deep machine learning algorithms, has not fully been established. This paper presents one such comparison for an exemplar dataset. As the efficacy of different machine learning approaches may be dependent on the specific application, this method is intended to lay the groundwork for future studies that produce more extensive comparisons. Specifically, this work makes use of a manufactured gear dataset for sale price prediction. Two traditional machine learning algorithms, M5Rules and SMOreg, are selected due to their applicability to the gear attribute-based data. These algorithms are compared to a neural network model that is trained on a voxelized version of the gears’ 3D models, defined in this work as form-based data. Results show that both data types provide comparable predictive accuracy.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography