Gotowa bibliografia na temat „Prédiction automatique”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Prédiction automatique”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Prédiction automatique"

1

Dias, G., A. Qureshi, S. Saha i M. Hasanuzzaman. "Prédiction automatique des scores aux questionnaires PHQ-8 par intelligence artificielle". French Journal of Psychiatry 1 (grudzień 2019): S167—S168. http://dx.doi.org/10.1016/j.fjpsy.2019.10.456.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

HARINAIVO, A., H. HAUDUC i I. TAKACS. "Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle". Techniques Sciences Méthodes 3 (20.03.2023): 33–42. http://dx.doi.org/10.36904/202303033.

Pełny tekst źródła
Streszczenie:
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
Style APA, Harvard, Vancouver, ISO itp.
3

Ferdynus, C., J. Allyn i P. Montravers. "Prédiction de la mortalité postopératoire après chirurgie cardiaque : apprentissage automatique versus Euroscore". Revue d'Épidémiologie et de Santé Publique 66 (maj 2018): S138. http://dx.doi.org/10.1016/j.respe.2018.03.349.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

J.B, Koto, T. R. Ramahefy i S. Randrianja. "Détection Des Anomalies Du Donnée De Démographie Par Région A Madagascar Par La Méthode Iforest". International Journal of Progressive Sciences and Technologies 34, nr 1 (27.09.2022): 367. http://dx.doi.org/10.52155/ijpsat.v34.1.4578.

Pełny tekst źródła
Streszczenie:
La détection des anomalies a connu dernièrement une grande attention, tant au niveau académique qu’au niveau industriel. La prédiction automatique pour la détection d’anomalie s’applique également aux données démographies à Madagascar. Une approche alternative qui se montre prometteuse, est l’utilisation de la méthode des forêts d’isolation (iForest).Cet article nous démontre que la détection des anomalies peut être appliquer sur tous les différents domaines, comme sur les données de la démographie par rapport au nombre de bureau de l’état civil à Madagascar. Les résultats de l’algorithme iForest présentent des réponses qui sont difficiles à l’interpréter. Il est toujours difficile de savoir la contribution de chaque variable dans cet algorithme d’isolation et de comprendre pourquoi des observations particulières reçoivent un score plus élevé.
Style APA, Harvard, Vancouver, ISO itp.
5

Reys, Victor, i Gilles Labesse. "Profilage in silico des inhibiteurs de protéine kinases". médecine/sciences 36 (październik 2020): 38–41. http://dx.doi.org/10.1051/medsci/2020182.

Pełny tekst źródła
Streszczenie:
Les protéine kinases ont été rapidement identifiées comme favorisant l’apparition de cancers, à travers leur implication dans la régulation du développement et du cycle cellulaire. Il y a une vingtaine d’années, la mise sur le marché des premiers traitements par inhibiteur de protéine kinase, ouvrait la voie vers de nouvelles solutions médicamenteuses plus ciblées contre le cancer. Depuis, nombreuses sont les données structurales et fonctionnelles acquises sur ces cibles thérapeutiques. Les techniques informatiques ont elles aussi évolué, notamment les méthodes d’apprentissage automatique. En tirant parti de la grande quantité d’informations disponibles aujourd’hui, ces méthodes devraient permettre prochainement la prédiction fine de l’interaction d’un inhibiteur donné avec chaque protéine kinase humaine et donc, à terme, la construction d’outils de profilage de leurs inhibiteurs spécifiques. Cette approche intégrative devrait aider la découverte de solutions thérapeutiques anti-cancéreuses plus efficaces et plus sûres.
Style APA, Harvard, Vancouver, ISO itp.
6

Garnotel, Maël, Hector-Manuel Romero-Ugalde, Thomas Bastian, Maeva Doron, Pierre Jallon, Guillaume Charpentier, Sylvia Franc, Stéphane Blanc, Stéphane Bonnet i Chantal Simon. "La reconnaissance automatique des activités améliore la prédiction de la dépense énergétique à partir du signla d’accélérométrie". Diabetes & Metabolism 43, nr 2 (marzec 2017): A102—A103. http://dx.doi.org/10.1016/s1262-3636(17)30401-9.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Foucart, Jean-Michel, Augustin Chavanne i Jérôme Bourriau. "Intelligence artificielle : le futur de l’Orthodontie ?" Revue d'Orthopédie Dento-Faciale 53, nr 3 (wrzesień 2019): 281–94. http://dx.doi.org/10.1051/odf/2019026.

Pełny tekst źródła
Streszczenie:
Nombreux sont les apports envisagés de l’Intelligence Artificielle (IA) en médecine. En orthodontie, plusieurs solutions automatisées sont disponibles depuis quelques années en imagerie par rayons X (analyse céphalométrique automatisée, analyse automatisée des voies aériennes) ou depuis quelques mois (analyse automatique des modèles numériques, set-up automatisé; CS Model +, Carestream Dental™). L’objectif de cette étude, en deux parties, est d’évaluer la fiabilité de l’analyse automatisée des modèles tant au niveau de leur numérisation que de leur segmentation. La comparaison des résultats d’analyse des modèles obtenus automatiquement et par l’intermédiaire de plusieurs orthodontistes démontre la fiabilité de l’analyse automatique; l’erreur de mesure oscillant, in fine, entre 0,08 et 1,04 mm, ce qui est non significatif et comparable avec les erreurs de mesures inter-observateurs rapportées dans la littérature. Ces résultats ouvrent ainsi de nouvelles perspectives quand à l’apport de l’IA en Orthodontie qui, basée sur le deep learning et le big data, devrait permettre, à moyen terme, d’évoluer vers une orthodontie plus préventive et plus prédictive.
Style APA, Harvard, Vancouver, ISO itp.
8

Bourkhime, H., N. Qarmiche, N. Bahra, M. Omari, M. Berraho, N. Tachfouti, S. El Fakir i N. Otmani. "P36 - La prédiction de la dépression chez les Marocains atteints de maladies respiratoires chroniques - Analyse comparative des algorithmes d'apprentissage automatique". Journal of Epidemiology and Population Health 72 (maj 2024): 202476. http://dx.doi.org/10.1016/j.jeph.2024.202476.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Mouchabac, Stéphane, i Christian Guinchard. "Apport des méthodes d'apprentissage automatique dans la prédiction de la transition vers la psychose : quels enjeux pour le patient et le psychiatre ?" L'information psychiatrique 89, nr 10 (2013): 811. http://dx.doi.org/10.3917/inpsy.8910.0811.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
10

Mouchabac, Stéphane, i Christian Guinchard. "Apport des méthodes d'apprentissage automatique dans la prédiction de la transition vers la psychose : quels enjeux pour le patient et le psychiatre ?" L'information psychiatrique Volume 89, nr 10 (7.01.2014): 811–17. http://dx.doi.org/10.1684/ipe.2013.1131.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Prédiction automatique"

1

Elloumi, Zied. "Prédiction de performances des systèmes de Reconnaissance Automatique de la Parole". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM005/document.

Pełny tekst źródła
Streszczenie:
Nous abordons dans cette thèse la tâche de prédiction de performances des systèmes de reconnaissance automatique de la parole (SRAP).Il s'agit d'une tâche utile pour mesurer la fiabilité d'hypothèses de transcription issues d'une nouvelle collection de données, lorsque la transcription de référence est indisponible et que le SRAP utilisé est inconnu (boîte noire).Notre contribution porte sur plusieurs axes:d'abord, nous proposons un corpus français hétérogène pour apprendre et évaluer des systèmes de prédiction de performances ainsi que des systèmes de RAP.Nous comparons par la suite deux approches de prédiction: une approche à l'état de l'art basée sur l'extraction explicite de traitset une nouvelle approche basée sur des caractéristiques entraînées implicitement à l'aide des réseaux neuronaux convolutifs (CNN).L'utilisation jointe de traits textuels et acoustiques n'apporte pas de gains avec de l'approche état de l'art,tandis qu'elle permet d'obtenir de meilleures prédictions en utilisant les CNNs. Nous montrons également que les CNNs prédisent clairement la distribution des taux d'erreurs sur une collection d'enregistrements, contrairement à l'approche état de l'art qui génère une distribution éloignée de la réalité.Ensuite, nous analysons des facteurs impactant les deux approches de prédiction. Nous évaluons également l'impact de la quantité d'apprentissage des systèmes de prédiction ainsi que la robustesse des systèmes appris avec les sorties d'un système de RAP particulier et utilisés pour prédire la performance sur une nouvelle collection de données.Nos résultats expérimentaux montrent que les deux approches de prédiction sont robustes et que la tâche de prédiction est plus difficile sur des tours de parole courts ainsi que sur les tours de parole ayant un style de parole spontané.Enfin, nous essayons de comprendre quelles informations sont capturées par notre modèle neuronal et leurs liens avec différents facteurs.Nos expériences montrent que les représentations intermédiaires dans le réseau encodent implicitementdes informations sur le style de la parole, l'accent du locuteur ainsi que le type d'émission.Pour tirer profit de cette analyse, nous proposons un système multi-tâche qui se montre légèrement plus efficace sur la tâche de prédiction de performance
In this thesis, we focus on performance prediction of automatic speech recognition (ASR) systems.This is a very useful task to measure the reliability of transcription hypotheses for a new data collection, when the reference transcription is unavailable and the ASR system used is unknown (black box).Our contribution focuses on several areas: first, we propose a heterogeneous French corpus to learn and evaluate ASR prediction systems.We then compare two prediction approaches: a state-of-the-art (SOTA) performance prediction based on engineered features and a new strategy based on learnt features using convolutional neural networks (CNNs).While the joint use of textual and signal features did not work for the SOTA system, the combination of inputs for CNNs leads to the best WER prediction performance. We also show that our CNN prediction remarkably predicts the shape of the WER distribution on a collection of speech recordings.Then, we analyze factors impacting both prediction approaches. We also assess the impact of the training size of prediction systems as well as the robustness of systems learned with the outputs of a particular ASR system and used to predict performance on a new data collection.Our experimental results show that both prediction approaches are robust and that the prediction task is more difficult on short speech turns as well as spontaneous speech style.Finally, we try to understand which information is captured by our neural model and its relation with different factors.Our experiences show that intermediate representations in the network automatically encode information on the speech style, the speaker's accent as well as the broadcast program type.To take advantage of this analysis, we propose a multi-task system that is slightly more effective on the performance prediction task
Style APA, Harvard, Vancouver, ISO itp.
2

Kawala, François. "Prédiction de l'activité dans les réseaux sociaux". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM021/document.

Pełny tekst źródła
Streszczenie:
Cette étude est dédiée à un problème d’exploration de données dans les médias sociaux: la prédiction d’activité. Dans ce problème nous essayons de prédire l’activité associée à une thématique pour un horizon temporel restreint. Dans ce problème des contenus générés par différents utilisateurs, n’ayant pas de lien entre eux, contribuent à l’activité d’une même thématique.Afin de pouvoir définir et étudier la prédiction d’activité sans référence explicite à un réseau social existant, nous définissons un cadre d’analyse générique qui permet de décrire de nombreux médias sociaux. Trois définitions de la prédiction d’activité sont proposées. Premièrement la prédiction de la magnitude d’activité, un problème de régression qui vise à prédire l’activité exacte d’une thématique. Secondement, la prédiction de Buzz, un problème de classification binaire qui vise à prédire quelles thématiques subiront une augmentation soudaine d’activité. Enfin la prédiction du rang d’activité, un problème de learning-to-rank qui vise à prédire l’importance relative de chacune des thématiques. Ces trois problèmes sont étudiés avec les méthodes de l’état de l’art en apprentissage automatique. Les descripteurs proposés pour ces études sont définis en utilisant le cadre d’analyse générique. Ainsi il est facile d’adapter ces descripteurs à différent média sociaux.Notre capacité à prédire l’activité des thématiques est testée à l’aide d’un ensemble de données multilingue: Français, Anglais et Allemand. Les données ont été collecté durant 51 semaines sur Twitter et un forum de discussion. Plus de 500 millions de contenus générés par les utilisateurs ont été capturé. Une méthode de validation croisée est proposée afin de ne pas introduire de biais expérimental lié au temps. De plus, une méthode d’extraction non-supervisée des candidats au buzz est proposée. En effet, les changements abrupts de popularité sont rares et l’ensemble d’entraˆınement est très déséquilibré. Les problèmes de prédiction de l’activité sont étudiés dans deux configurations expérimentales différentes. La première configuration expérimentale porte sur l’ensemble des données collectées dans les deux médias sociaux, et sur les trois langues observées. La seconde configuration expérimentale porte exclusivement sur Twitter. Cette seconde configuration expérimentale vise à améliorer la reproductibilité de nos expériences. Pour ce faire, nous nous concentrons sur un sous-ensemble des thématiques non ambigu¨es en Anglais. En outre, nous limitons la durée des observations à dix semaines consécutives afin de limiter les risques de changement structurel dans les données observées
This dissertation is devoted to a social-media-mining problem named the activity-prediction problem. In this problem one aims to predict the number of user-generated-contents that will be created about a topic in the near future. The user-generated-contents that belong to a topic are not necessary related to each other.In order to study the activity-prediction problem without referring directly to a particular social-media, a generic framework is proposed. This generic framework allows to describe various social-media in a unified way. With this generic framework the activityprediction problem is defined independently of an actual social-media. Three examples are provided to illustrate how this generic framework describes social-media. Three defi- nitions of the activity-prediction problem are proposed. Firstly the magnitude prediction problem defines the activity-prediction as a regression problem. With this definition one aims to predict the exact activity of a topic. Secondly, the buzz classification problem defines the activity-prediction as a binary classification problem. With this definition one aims to predict if a topic will have an activity burst of a predefined amplitude. Thirdly the rank prediction problem defines the activity-prediction as a learning-to-rank problem. With this definition one aims to rank the topics accordingly to theirs future activity-levels. These three definitions of the activity prediction problem are tackled with state-of-the-art machine learning approaches applied to generic features. Indeed, these features are defined with the help of the generic framework. Therefore these features are easily adaptable to various social-media. There are two types of features. Firstly the features which describe a single topic. Secondly the features which describe the interplay between two topics.Our ability to predict the activity is tested against an industrial-size multilingual dataset. The data has been collected during 51 weeks. Two sources of data were used: Twitter and a bulletin-board-system. The collected data contains three languages: English, French and German. More than five hundred millions user-generated-contents were captured. Most of these user-generated-contents are related to computer hardware, video games, and mobile telephony. The data collection necessitated the implementation of a daily routine. The data was prepared so that commercial-contents and technical failure are not sources of noise. A cross-validation method that takes into account the time of observations is used. In addition an unsupervised method to extract buzz candidates is proposed. Indeed the training-sets are very ill-balanced for the buzz classification problem, and it is necessary to preselect buzz candidates. The activity-prediction problems are studied within two different experimental settings. The first experimental setting includes data from Twitter and the bulletin-board-system, on a long time-scale, and with three different languages. The second experimental setting is dedicated specifically to Twitter. This second experiment aims to increase the reproducibility of experiments as much as possible. Hence, this experimental setting includes user-generated-contents collected with respect to a list of unambiguous English terms. In addition the observation are restricted to ten consecutive weeks. Hence the risk of unannounced change in the public API of Twitter is minimized
Style APA, Harvard, Vancouver, ISO itp.
3

Hmamouche, Youssef. "Prédiction des séries temporelles larges". Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Pełny tekst źródła
Streszczenie:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
Style APA, Harvard, Vancouver, ISO itp.
4

Popov, Mihail. "Décomposition automatique des programmes parallèles pour l'optimisation et la prédiction de performance". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV087/document.

Pełny tekst źródła
Streszczenie:
Dans le domaine du calcul haute performance, de nombreux programmes étalons ou benchmarks sont utilisés pour mesurer l’efficacité des calculateurs,des compilateurs et des optimisations de performance. Les benchmarks de référence regroupent souvent des programmes de calcul issus de l’industrie et peuvent être très longs. Le processus d’´étalonnage d’une nouvelle architecture de calcul ou d’une optimisation est donc coûteux.La plupart des benchmarks sont constitués d’un ensemble de noyaux de calcul indépendants. Souvent l’´étalonneur n’est intéressé que par un sous ensemble de ces noyaux, il serait donc intéressant de pouvoir les exécuter séparément. Ainsi, il devient plus facile et rapide d’appliquer des optimisations locales sur les benchmarks. De plus, les benchmarks contiennent de nombreux noyaux de calcul redondants. Certaines opérations, bien que mesurées plusieurs fois, n’apportent pas d’informations supplémentaires sur le système à étudier. En détectant les similarités entre eux et en éliminant les noyaux redondants, on diminue le coût des benchmarks sans perte d’information.Cette thèse propose une méthode permettant de décomposer automatiquement une application en un ensemble de noyaux de performance, que nous appelons codelets. La méthode proposée permet de rejouer les codelets,de manière isolée, dans différentes conditions expérimentales pour pouvoir étalonner leur performance. Cette thèse étudie dans quelle mesure la décomposition en noyaux permet de diminuer le coût du processus de benchmarking et d’optimisation. Elle évalue aussi l’avantage d’optimisations locales par rapport à une approche globale.De nombreux travaux ont été réalisés afin d’améliorer le processus de benchmarking. Dans ce domaine, on remarquera l’utilisation de techniques d’apprentissage machine ou d’´echantillonnage. L’idée de décomposer les benchmarks en morceaux indépendants n’est pas nouvelle. Ce concept a été aappliqué avec succès sur les programmes séquentiels et nous le portons à maturité sur les programmes parallèles.Evaluer des nouvelles micro-architectures ou la scalabilité est 25× fois plus rapide avec des codelets que avec des exécutions d’applications. Les codelets prédisent le temps d’exécution avec une précision de 94% et permettent de trouver des optimisations locales jusqu’`a 1.06× fois plus efficaces que la meilleure approche globale
In high performance computing, benchmarks evaluate architectures, compilers and optimizations. Standard benchmarks are mostly issued from the industrial world and may have a very long execution time. So, evaluating a new architecture or an optimization is costly. Most of the benchmarks are composed of independent kernels. Usually, users are only interested by a small subset of these kernels. To get faster and easier local optimizations, we should find ways to extract kernels as standalone executables. Also, benchmarks have redundant computational kernels. Some calculations do not bring new informations about the system that we want to study, despite that we measure them many times. By detecting similar operations and removing redundant kernels, we can reduce the benchmarking cost without loosing information about the system. This thesis proposes a method to automatically decompose applications into small kernels called codelets. Each codelet is a standalone executable that can be replayed in different execution contexts to evaluate them. This thesis quantifies how much the decomposition method accelerates optimization and benchmarking processes. It also quantify the benefits of local optimizations over global optimizations. There are many related works which aim to enhance the benchmarking process. In particular, we note machine learning approaches and sampling techniques. Decomposing applications into independent pieces is not a new idea. It has been successfully applied on sequential codes. In this thesis we extend it to parallel programs. Evaluating scalability or new micro-architectures is 25× faster with codelets than with full application executions. Codelets predict the execution time with an accuracy of 94% and find local optimizations that outperform the best global optimization up to 1.06×
Style APA, Harvard, Vancouver, ISO itp.
5

Colombet-Madinier, Isabelle. "Aspects méthodologiques de la prédiction du risque cardiovasculaire : apports de l'apprentissage automatique". Paris 6, 2002. http://www.theses.fr/2002PA066083.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Hmamouche, Youssef. "Prédiction des séries temporelles larges". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Pełny tekst źródła
Streszczenie:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
Style APA, Harvard, Vancouver, ISO itp.
7

Herry, Sébastien. "Détection automatique de langue par discrimination d'experts". Paris 6, 2007. http://www.theses.fr/2007PA066101.

Pełny tekst źródła
Streszczenie:
L'objectif du travail présenté dans ce mémoire est de détecter de façon automatique une langue dans un flux audio. Pour cela, nous proposons un modèle qui, à l’instar d’experts bilingues, effectue une discrimination par paires de langues avec pour information discriminante, l’information acoustique. Parmi les contraintes imposées, on notera que le système doit : être temps réel, utiliser des bases sans étiquetage, pouvoir intégrer de nouvelles langues avec un apprentissage minimal. Dans un premier temps nous avons mis en œuvre un système de Détection Automatique de Langue (DAL) reprenant l’état de l’art. Les résultats obtenus sur ce système de référence ont servi de comparaison avec ceux obtenus par les systèmes que nous avons développés. Dans un premier temps nous avons proposé un ensemble de discriminateurs, par paire de langue, basés sur des réseaux de neurones. Le traitement est effectué sur toute la durée du segment de parole. Les résultats obtenus sur ces discriminateurs sont ensuite fusionnés afin de réaliser la détection. Ce modèle a fait l’objet d’un brevet. Nous avons ensuite étudié plus précisément l'influence de différents paramètres tels que le nombre de locuteurs, les variations intra et inter corpus ou encore la robustesse. Puis nous avons comparé la modélisation proposée, c'est-à-dire discriminante, à d'autres modélisations auto-régressive et/ou prédictive. Ce système a ensuite été testé dans le cadre de la campagne d’évaluation internationale organisée par le NIST en décembre 2005. Suite à cette évaluation, à laquelle participaient 17 équipes internationales, nous avons proposé plusieurs améliorations basées sur : une normalisation de la base de données, une modification de la base de locuteurs en apprentissage uniquement, une prise en compte de la durée de la phrase en test En conclusion, le système proposé répond bien aux contraintes imposées puisqu'il est temps réel et n’utilise que l’information acoustique. Il est aussi plus performant que le modèle issu de l'état de l'art. Enfin, il est robuste au bruit, au changement de langue et de corpus d’évaluation
The purpose of the presented work in this memoir is to automatically detect language in audio stream. For this we suggest a model which, like bilingual expert, done an discrimination by language pair with only acoustic information. The system have constraint : Operating in real time, Use database without phonetic information, Able to add a new language without retrain all the model In a first time we have done an Automatic language detection system derived from the stat of the art. The results obtained by this system are used as reference for the rest of memoir, and we compare those results with the results obtained by the developed model. In a first time, we propose a set of discriminator, by pair of language, based on neural network. The treatment is done on the whole duration of speech segment. The results of these discriminators are fused to create de detection. This model has a patent. We have study more precisely the influence of different parameter as the number of locator, the variation intra and inter corpus or the hardiness. Next we have compared the proposed modelling based on discrimination, with modelling auto regressive or predictive. This system has been tested with our participation of the international campaign organised by NIST in December 2005. To conclude on this campaign where 17 international teams have participated, we have proposed several improvements as: A normalisation of database, A modification of speaker database for learning only, Increase scores with segment duration. To conclude, the system proposed fulfils the constraints because the system is real time, and use only acoustic information. More over the system is more efficient than the derived model from the stat of the art. At last the model is hardiness for noise, for unknown language, for new evaluation database
Style APA, Harvard, Vancouver, ISO itp.
8

Kashnikov, Yuriy. "Une approche holistique pour la prédiction des optimisations du compilateur par apprentissage automatique". Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0047.

Pełny tekst źródła
Streszczenie:
Un choix efficace des optimisations de compilation améliore notablement la performances des applications. En raison du grand nombre de choix possibles une approche exhaustive est irréalisable et l'exploration peut facilement tomber dans un minimum local. Les compilateurs utilisent des heuristiques qui parfois dégradent la performance, ce qui contraint les utilisateurs à des ajustements manuels. Cette thèse propose une approche holistique basée sur l'apprentissage automatique pour améliorer la sélection des optimisations du compilateur. L'analyse statique d'un grand nombre de boucles permet de montrer l'existence d'un potentiel d'optimisation significatif. On applique ensuite Milepost GCC, un compilateur basé sur l'apprentissage automatique, pour optimiser différentes applications. Il utilise les caractéristiques statiques des fonctions et un algorithme de classification, pour prédire une bonne séquence d'optimisations. Milepost apporte une accélération significative qui surpasse les solutions existantes. La contribution majeure de cette thèse est une méthode de méta-optimisation, ULM. Elle exploite des données statiques et dynamiques afin de déterminer les meilleurs jeux d'apprentissage pour différent algorithmes de classification. En mettant plusieurs algorithmes en compétition, ULM construit un prédicteur plus efficace que les solutions existantes. ULM prédit dans 92% des cas étudiés la meilleure combinaison d'optimisations
Effective compiler optimizations can greatly improve applications performance. These optimizations are numerous and can be applied in any order. Compilers select these optimizations using solutions driven by heuristics which may degrade programs performance. Therefore, developers resort to the tedious manual search for the best optimizations. Combinatorial search space makes this effort intractable and one can easily fall into a local minimum and miss the best combination. This thesis develops a holistic approach to improve applications performance with compiler optimizations and machine learning. A combination of static loop analysis and statistical learning is used to analyze a large corpus of loops and reveal good potential for compiler optimizations. Milepost GCC, a machine-learning based compiler, is applied to optimize benchmarks and an industrial database application. It uses function level static features and classification algorithms to predict a good sequence of optimizations. While Milepost GCC can mispredict the best optimizations, in general it obtains considerable speedups and outperforms state-of-the-art compiler heuristics. The culmination of this thesis is the ULM meta-optimization framework. ULM characterizes applications at different levels with static code features and hardware performance counters and finds the most important combination of program features. By selecting among three classification algorithms and tuning their parameters, ULM builds a sophisticated predictor that can outperform existing solutions. As a result, the ULM framework predicted correctly the best sequence of optimizations sequence in 92% of cases
Style APA, Harvard, Vancouver, ISO itp.
9

Hue, Martial. "Méthodes à noyau pour l'annotation automatique et la prédiction d'interaction de structures de protéine". Paris 7, 2011. http://www.theses.fr/2011PA077151.

Pełny tekst źródła
Streszczenie:
De nombreuses structures de protéines sont désormais résolues à débit élevé, et donnent lieu à un besoin d'annotation automatique. Dans cette thèse, nous examinons plusieurs approches d'apprentissage statistique, basées sur les machines à vecteurs de support (SVM). En effet, la SVM offre plusieurs possibilités adaptées à la complexité des structures de protéines et de leurs interactions. Nous proposons de résoudre ces deux problèmes en examinant de nouveaux noyaux positifs. Dans une premième partie, une fonction noyau pour l'annotation de structures de protéines est présentée. Le noyau est basé sur une fonction de similarité appelée MAMMOTH. Les problèmes de classification correspondant à la classification d'enzymes EC, l'annotation structurelle SCOP, et l'annotation Gène Ontology, montrent que le noyau MAMMOTH renvoie de meilleurs résultats que d'autres choix de noyaux ou de classifieurs. Dans une seconde partie, nous implémentons un noyau dans le contexte de la prédiction supervisée d'objets ayant une structure particulière, à savoir des paires d'objets génériques. Le problème de l'inférence d'arêtes manquantes dans un réseau d'interaction de protéines se formule dans ce contexte. Nos résultats sur trois ensembles de données d'interaction entres structures de protéines montrent que le noyau pour paires basé l'apprentissage de métrique (MLPK), combiné avec le noyau MAMMOTH fournit une meilleure performance. Enfin, nous présentons une méthode nouvelle et efficace pour la prédiction supervisée d'interaction entre protéines. Un noyau pour paires est motivé par deux méthodes précédemment publiées, le noyaux pour paires basé sur le produit tensoriel, et le modèle local. Le lien entre les deux approches est explicité dans un cadre commun, qui fournit une généralisation par une interpolation
As large quantities of protein 3D structures are now routinely solved, there is a need for computational tools to automatically annotate protein structures. In this thesis, we investigate several machine learning approaches for this purpose, based on the popular support vector machine (SVM) algorithm. Indeed, the SVM offers several possibilities to overcome the complexity of protein structures, and their interactions. We propose to solve both issues by investigating new positive definite kernels. First, a kernel function for the annotation of protein structures is devised. The kernel is based on a similarity measure called MAMMOTH. Classification tasks corresponding to Enzyme Classification (EC), Structural Classification of Proteins (SCOP), and Gene Ontology (GO) annotation, show that the MAMMOTH kernel significantly outperforms other choices of kernels for protein structures and classifiers. Second, we design a kernel in the context of binary supervised prediction of objects with a specific structure, namely pairs of general objects. The problem of the inference of missing edges in a protein-protein interaction network may be cast in this context. Our results on three benchmarks of interaction between protein structures suggest that the Metric Learning Pairwise Kernel (MLPK), in combination with the MAMMOTH kernel, yield the best performance. Lastly, we introduce a new and efficient learning method for the supervised prediction of protein interaction. A pairwise kernel method is motivated by two previous methods, the Tensor Product Pairwise Kernel (TPPK) and the local model. The connection between the approaches is explicited and the two methods are formulated in a new common framework, that yields to natural generalization by an interpolation
Style APA, Harvard, Vancouver, ISO itp.
10

Grenet, Ingrid. "De l’utilisation des données publiques pour la prédiction de la toxicité des produits chimiques". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4050.

Pełny tekst źródła
Streszczenie:
L’évaluation de la sécurité des composés chimiques repose principalement sur les résultats des études in vivo, réalisées sur des animaux de laboratoire. Cependant, ces études sont coûteuses en terme de temps, d'argent et d'utilisation d'animaux, ce qui les rend inadaptées à l'évaluation de milliers de composés. Afin de prédire rapidement la toxicité potentielle des composés et de les prioriser pour de futures études, des solutions alternatives sont actuellement envisagées telles que les essais in vitro et les modèles prédictifs d'apprentissage automatique. L’objectif de cette thèse est d’évaluer comment les données publiques de ToxCast et ToxRefDB peuvent permettre de construire de tels modèles afin de prédire les effets in vivo induits par les composés, uniquement à partir de leur structure chimique. A cette fin, et après pré-traitement des données, nous nous focalisons d’abord sur la prédiction de la bioactivité in vitro à partir de la structure chimique puis sur la prédiction des effets in vivo à partir des données de bio-activité in vitro. Pour la prédiction de la bio-activité in vitro, nous construisons et testons différents modèles de machine learning dont les descripteurs reflètent la structure chimique des composés. Puisque les données d'apprentissage sont fortement déséquilibrées en faveur des composés non toxiques, nous testons une technique d'augmentation de données et montrons qu’elle améliore les performances des modèles. Aussi, par une étude à grande échelle sur des centaines de tests in vitro de ToxCast, nous montrons que la méthode ensembliste "stacked generalization" mène à des modèles fiables sur leur domaine d'applicabilité. Pour la prédiction des effets in vivo, nous évaluons le lien entre les résultats des essais in vitro ciblant des voies connues pour induire des effets endocriniens et les effets in vivo observés dans les organes endocriniens lors d'études long terme. Nous montrons que, de manière inattendue, ces essais ne sont pas prédictifs des effets in vivo, ce qui soulève la question essentielle de la pertinence des essais in vitro. Nous faisons alors l’hypothèse que le choix d’essais capables de prédire les effets in vivo devrait reposer sur l’utilisation d'informations complémentaires comme, en particulier, les données mécanistiques
Currently, chemical safety assessment mostly relies on results obtained in in vivo studies performed in laboratory animals. However, these studies are costly in term of time, money and animals used and therefore not adapted for the evaluation of thousands of compounds. In order to rapidly screen compounds for their potential toxicity and prioritize them for further testing, alternative solutions are envisioned such as in vitro assays and computational predictive models. The objective of this thesis is to evaluate how the public data from ToxCast and ToxRefDB can allow the construction of this type of models in order to predict in vivo effects induced by compounds, only based on their chemical structure. To do so, after data pre-processing, we first focus on the prediction of in vitro bioactivity from chemical structure and then on the prediction of in vivo effects from in vitro bioactivity data. For the in vitro bioactivity prediction, we build and test various models based on compounds’ chemical structure descriptors. Since learning data are highly imbalanced in favor of non-toxic compounds, we test a data augmentation technique and show that it improves models’ performances. We also perform a largescale study to predict hundreds of in vitro assays from ToxCast and show that the stacked generalization ensemble method leads to reliable models when used on their applicability domain. For the in vivo effects prediction, we evaluate the link between results from in vitro assays targeting pathways known to induce endocrine effects and in vivo effects observed in endocrine organs during longterm studies. We highlight that, unexpectedly, these assays are not predictive of the in vivo effects, which raises the crucial question of the relevance of in vitro assays. We thus hypothesize that the selection of assays able to predict in vivo effects should be based on complementary information such as, in particular, mechanistic data
Style APA, Harvard, Vancouver, ISO itp.

Książki na temat "Prédiction automatique"

1

Stephen, Coggeshall, red. Foundations of predictive analytics. Boca Raton: CRC Press, 2012.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

Geyer, Tobias. Model Predictive Control of High Power Converters and Industrial Drives. Wiley & Sons, Incorporated, John, 2016.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Geyer, Tobias. Model Predictive Control of High Power Converters and Industrial Drives. Wiley & Sons, Incorporated, John, 2016.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Geyer, Tobias. Model Predictive Control of High Power Converters and Industrial Drives. Wiley & Sons, Limited, John, 2016.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Geyer, Tobias. Model Predictive Control of High Power Converters and Industrial Drives. Wiley & Sons, Incorporated, John, 2016.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Geyer, Tobias. Model Predictive Control of High Power Converters and Industrial Drives. Wiley & Sons, Incorporated, John, 2016.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Model Predictive Control of High Power Converters and Industrial Drives. Wiley, 2016.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Części książek na temat "Prédiction automatique"

1

AMRAOUI, Asma, i Badr BENMAMMAR. "Optimisation des réseaux à l’aide des techniques de l’intelligence artificielle". W Gestion et contrôle intelligents des réseaux, 71–94. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch3.

Pełny tekst źródła
Streszczenie:
L’optimisation du réseau, la maintenance prédictive, les assistants virtuels sont des exemples de cas où l’intelligence artificielle (IA) a eu un impact sur le secteur des télécommunications. Ce chapitre est dédié à définir les différentes techniques intelligentes utilisées habituellement dans le secteur des télécommunications en passant par les systèmes experts, l’apprentissage automatique, les systèmes multi-agents, mais aussi l’Internet des Objets et les Big Data. Le chapitre se focalisera en particulier sur les quatre aspects de l’optimisation réseau, à savoir les performances du réseau, la qualité de service, la sécurité et la consommation d’énergie. Pour chacun de ces critères, nous allons expliquer en quoi consiste leur optimisation et comment l’IA contribue à une meilleure utilisation.
Style APA, Harvard, Vancouver, ISO itp.

Streszczenia konferencji na temat "Prédiction automatique"

1

Ferreira, Sébastien, Jérôme Farinas, Julien Pinquier i Stéphane Rabant. "Prédiction a priori de la qualité de la transcription automatique de la parole bruitée". W XXXIIe Journées d’Études sur la Parole. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-29.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Raporty organizacyjne na temat "Prédiction automatique"

1

Jacob, Steve, i Sébastien Brousseau. L’IA dans le secteur public : cas d’utilisation et enjeux éthiques. Observatoire international sur les impacts sociétaux de l'IA et du numérique, maj 2024. http://dx.doi.org/10.61737/fcxm4981.

Pełny tekst źródła
Streszczenie:
L’introduction de l’intelligence artificielle (IA) dans l’administration publique est en pleine expansion et représente la phase plus récente de la transformation numérique. L’utilisation de systèmes d’IA est souvent associée à l’amélioration de l’efficacité et de la productivité, car elle permet d’exécuter rapidement des tâches routinières, de réaliser des activités à une plus grande échelle et de rendre les services accessibles à un plus grand nombre de personnes. Cette technologie a donc le potentiel de transformer plusieurs aspects du travail administratif comme la prise de décision automatisée, l’analyse prédictive, le traitement de documents et l’interaction avec les citoyens. À l’heure où les technologies d’intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilités associées aux systèmes d’IA (SIA) ne sont pas toujours clairement connues ou comprises par les décideurs, les usagers ou les employés du secteur public. Ce rapport a pour but de décrire des cas concrets d’utilisation de l’IA dans les organisations publiques de pays de l’OCDE. L’intention est d’enrichir la connaissance et la compréhension des potentialités de l’IA en présentant un éventail de systèmes aux capacités techniques variées.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii