Auswahl der wissenschaftlichen Literatur zum Thema „Recherche Automatique d'Architecture Neuronale“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Recherche Automatique d'Architecture Neuronale" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Recherche Automatique d'Architecture Neuronale"

1

Dobnik, Nadja. "Les enjeux de l’intelligence artificielle : enseigner et apprendre à traduire sans ordinateur – utopie ou défi ?" Scripta Manent 19, no. 1 (2024): 63–80. https://doi.org/10.4312/sm.19.1.63-80.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine de la didactique de la traduction professionnelle, les outils de traduction automatique font partie intégrante de l’enseignement et de l’évaluation depuis de nombreuses années. Plus les outils de traduction automatique se sont développés et sont devenus indissociables des métiers de la traduction, plus l’enseignement s’est appuyé sur l’utilisation de ces outils. En conséquence, il est devenu de plus en plus difficile d’évaluer l’authenticité des traductions et la compétence réelle de l’étudiant. Ces questions sont devenues particulièrement pertinentes pendant et après la pandémie du Covid-19 et l’arrivée des systèmes de traduction neuronale lorsque les étudiants se sont habitués à faire leurs traductions à l’aide des outils de traduction automatique. Cet article présente les résultats d’une recherche visant à évaluer les traductions du français vers le slovène faites par les étudiants sans ordinateur, comparées à des traductions effectuées à l’aide d’outils de traduction automatique. Les résultats sont intéressants et ouvrent certaines pistes de réflexion sur les méthodes d’enseignement à appliquer.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

BOUZEROUATA, Ali, and MENYARI Younesse EL. "L'impact de l'intelligence artificielle sur les exportations manufacturières au Maroc : Une étude basée sur le modèle de gravité." International Journal of Accounting, Finance, Auditing, Management and Economics, December 6, 2024. https://doi.org/10.5281/zenodo.14289303.

Der volle Inhalt der Quelle
Annotation:
<strong>R&eacute;sum&eacute;&nbsp;: </strong> Le pr&eacute;sent article &eacute;tudie l'impact de l'intelligence artificielle sur les exportations manufacturi&egrave;res marocaines. &Agrave; cet effet, l'intelligence artificielle a &eacute;t&eacute; mat&eacute;rialis&eacute;e par la traduction automatique neuronale. L'approche m&eacute;thodologique a &eacute;t&eacute; bas&eacute;e sur le mod&egrave;le de gravit&eacute; notamment en adoptant l'estimation de l'estimateur de Poisson Pseudo-Maximum de Vraisemblance sur des donn&eacute;es de panel compos&eacute;es de 20 partenaires commerciaux majeurs du Maroc pour la p&eacute;riode allant de 2011 &agrave; 2023. Les r&eacute;sultats soulignent que les exportations manufacturi&egrave;res marocaines sont positivement et significativement affect&eacute;es par la traduction automatique neuronale et le PIB des pays partenaires, cependant la distance toutes choses &eacute;gales par ailleurs a un impact n&eacute;gatif sur les exportations manufacturi&egrave;res marocaines. &nbsp; <strong>Mots cl&eacute;s&nbsp;: </strong>Intelligence artificielle, traduction automatique neuronale, mod&egrave;le de gravit&eacute;, exportations manufacturi&egrave;res. <strong>JEL Classification</strong>&nbsp;: F76 <strong>Type du papier</strong>&nbsp;: Recherche empirique &nbsp; &nbsp; <strong>Abstract: </strong> The present article investigates the impact of artificial intelligence on Moroccan&rsquo;s manufacturing exports. For this purpose, artificial intelligence was materialized by neural machine translation. The methodological approach was based on the gravity model namely by adopting estimation of the Poisson Pseudo-Maximum Likelihood estimator on a panel data composed of 20 major trading partners of Morocco for the period between 2011and 2023. The results highlight that Moroccan manufacturing exports are positively and significantly affected by neural machine translation and GDP partners, however distance all other things being equal has negative impact on Moroccan manufacturing exports. &nbsp; <strong>Keywords: </strong>Artificial intelligence, neural machine translation, Gravity model, manufacturing exports. <strong>Classification JEL</strong>&nbsp;: F76 <strong>Paper type</strong>: Empirical Research &nbsp;
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Hansen, Damien, Emmanuelle Esperança-Rodier, Hervé Blanchon, and Valérie Bada. "La traduction littéraire automatique : Adapter la machine à la traduction humaine individualisée." Journal of Data Mining & Digital Humanities Towards robotic translation?, V. The contribution of... (2022). http://dx.doi.org/10.46298/jdmdh.9114.

Der volle Inhalt der Quelle
Annotation:
La traduction automatique neuronale et son adaptation à des domaines spécifiques par le biais de corpus spécialisés ont permis à cette technologie d’intégrer bien plus largement qu’auparavant le métier et la formation des traducteur·trice·s. Si le paradigme neuronal (et le deep learning de manière générale) a ainsi pu investir des domaines parfois insoupçonnés, y compris certains où la créativité est de mise, celui-ci est moins marqué par un gain phénoménal de performance que par une utilisation massive auprès du public et les débats qu’il génère, nombre d’entre eux invoquant couramment le cas littéraire pour (in)valider telle ou telle observation. Pour apprécier la pertinence de cette technologie, et ce faisant surmonter les discours souvent passionnés des opposants et partisans de la traduction automatique, il est toutefois nécessaire de mettre l’outil à l’épreuve, afin de fournir un exemple concret de ce que pourrait produire un système entraîné spécifiquement pour la traduction d’œuvres littéraires. Inscrit dans un projet de recherche plus vaste visant à évaluer l’aide que peuvent fournir les outils informatiques aux traducteurs et traductrices littéraires, cet article propose par conséquent une expérience de traduction automatique de la prose qui n’a plus été tentée pour le français depuis les systèmes probabilistes et qui rejoint un nombre croissant d’études sur le sujet pour d’autres paires de langues. Nous verrons que si les résultats sont encourageants, ceux-ci laissent présager une tout autre manière d’envisager la traduction automatique, plus proche de la traduction humaine assistée par ordinateur que de la post-édition pure, et que l’exemple des œuvres de littérature soulève en outre des réflexions utiles pour la traduction dans son ensemble.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Recherche Automatique d'Architecture Neuronale"

1

Pouy, Léo. "OpenNas : un cadre adaptable de recherche automatique d'architecture neuronale." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG089.

Der volle Inhalt der Quelle
Annotation:
Lors de la création d'un modèle de réseau de neurones, l'étape dite du "fine-tuning" est incontournable. Lors de ce fine-tuning, le développeur du réseau de neurones doit ajuster les hyperparamètres et l'architecture du réseau pour que ce-dernier puisse répondre au cahier des charges. Cette étape est longue, fastidieuse, et nécessite de l'expérience de la part du développeur. Ainsi, pour permettre la création plus facile de réseaux de neurones, il existe une discipline, l'"Automatic Machine Learning" (Auto-ML), qui cherche à automatiser la création de Machine Learning. Cette thèse s'inscrit dans cette démarche d'automatisation et propose une méthode pour créer et optimiser des architectures de réseaux de neurones (Neural Architecture Search). Pour ce faire, un nouvel espace de recherche basé sur l'imbrication de blocs à été formalisé. Cet espace permet de créer un réseau de neurones à partir de blocs élémentaires connectés en série ou en parallèle pour former des blocs composés qui peuvent eux-mêmes être connectés afin de former un réseau encore plus complexe. Cet espace de recherche à l'avantage d'être facilement personnalisable afin de pouvoir influencer la recherche automatique vers des types d'architectures (VGG, Inception, ResNet, etc.) et contrôler le temps d'optimisation. De plus il n'est pas contraint à un algorithme d'optimisation en particulier. Dans cette thèse, la formalisation de l'espace de recherche est tout d'abord décrite, ainsi que des techniques dîtes d'"encodage" afin de représenter un réseau de l'espace de recherche par un entier naturel (ou une liste d'entiers naturels). Puis, des stratégies d'optimisation applicables à cet espace de recherche sont proposées. Enfin, des expérimentations de recherches d'architectures neuronales sur différents jeux de données et avec différents objectifs en utilisant l'outil développé (nommé OpenNas) sont présentées<br>When creating a neural network, the "fine-tuning" stage is essential. During this fine-tuning, the neural network developer must adjust the hyperparameters and the architecture of the network so that it meets the targets. This is a time-consuming and tedious phase, and requires experience on the part of the developer. So, to make it easier to create neural networks, there is a discipline called Automatic Machine Learning (Auto-ML), which seeks to automate the creation of Machine Learning. This thesis is part of this Auto-ML approach and proposes a method for creating and optimizing neural network architectures (Neural Architecture Search, NAS). To this end, a new search space based on block imbrication has been formalized. This space makes it possible to create a neural network from elementary blocks connected in series or in parallel to form compound blocks which can themselves be connected to form an even more complex network. The advantage of this search space is that it can be easily customized to influence the NAS for specific architectures (VGG, Inception, ResNet, etc.) and control the optimization time. Moreover, it is not constrained to any particular optimization algorithm. In this thesis, the formalization of the search space is first described, along with encoding techniques to represent a network from the search space by a natural number (or a list of natural numbers). Optimization strategies applicable to this search space are then proposed. Finally, neural architecture search experiments on different datasets and with different objectives using the developed tool (named OpenNas) are presented
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Heuillet, Alexandre. "Exploring deep neural network differentiable architecture design." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG069.

Der volle Inhalt der Quelle
Annotation:
L'intelligence artificielle (IA) a gagné en popularité ces dernières années, principalement en raison de ses applications réussies dans divers domaines tels que l'analyse de données textuelles, la vision par ordinateur et le traitement audio. La résurgence des techniques d'apprentissage profond a joué un rôle central dans ce succès. L'article révolutionnaire de Krizhevsky et al., AlexNet, a réduit l'écart entre les performances humaines et celles des machines dans les tâches de classification d'images. Des articles ultérieurs tels que Xception et ResNet ont encore renforcé l'apprentissage profond en tant que technique de pointe, ouvrant de nouveaux horizons pour la communauté de l'IA. Le succès de l'apprentissage profond réside dans son architecture, conçue manuellement avec des connaissances d'experts et une validation empirique. Cependant, ces architectures n'ont pas la certitude d'être la solution optimale. Pour résoudre ce problème, des articles récents ont introduit le concept de Recherche d'Architecture Neuronale ( extit{NAS}), permettant l'automatisation de la conception des architectures profondes. Cependant, la majorités des approches initiales se sont concentrées sur de grandes architectures avec des objectifs spécifiques (par exemple, l'apprentissage supervisé) et ont utilisé des techniques d'optimisation coûteuses en calcul telles que l'apprentissage par renforcement et les algorithmes génétiques. Dans cette thèse, nous approfondissons cette idée en explorant la conception automatique d'architectures profondes, avec une emphase particulière sur les méthodes extit{NAS} différentiables ( extit{DNAS}), qui représentent la tendance actuelle en raison de leur efficacité computationnelle. Bien que notre principal objectif soit les réseaux convolutifs ( extit{CNNs}), nous explorons également les Vision Transformers (ViTs) dans le but de concevoir des architectures rentables adaptées aux applications en temps réel<br>Artificial Intelligence (AI) has gained significant popularity in recent years, primarily due to its successful applications in various domains, including textual data analysis, computer vision, and audio processing. The resurgence of deep learning techniques has played a central role in this success. The groundbreaking paper by Krizhevsky et al., AlexNet, narrowed the gap between human and machine performance in image classification tasks. Subsequent papers such as Xception and ResNet have further solidified deep learning as a leading technique, opening new horizons for the AI community. The success of deep learning lies in its architecture, which is manually designed with expert knowledge and empirical validation. However, these architectures lack the certainty of an optimal solution. To address this issue, recent papers introduced the concept of Neural Architecture Search (NAS), enabling the learning of deep architectures. However, most initial approaches focused on large architectures with specific targets (e.g., supervised learning) and relied on computationally expensive optimization techniques such as reinforcement learning and evolutionary algorithms. In this thesis, we further investigate this idea by exploring automatic deep architecture design, with a particular emphasis on differentiable NAS (DNAS), which represents the current trend in NAS due to its computational efficiency. While our primary focus is on Convolutional Neural Networks (CNNs), we also explore Vision Transformers (ViTs) with the goal of designing cost-effective architectures suitable for real-time applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Veniat, Tom. "Neural Architecture Search under Budget Constraints." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS443.

Der volle Inhalt der Quelle
Annotation:
L'augmentation de la puissance de calcul et de la quantité de données disponible ont permis la montée en popularité de l'apprentissage profond. Cependant, l'expertise et les ressources nécessaires pour construire de tels algorithmes ainsi que l'empreinte mémoire et le temps d'inférence lors de l'utilisation sont autant d'obstacles à l'utilisation de ces méthodes. Dans cette thèse, nous proposons de construire des modèles d'apprentissage profond de manière plus efficace et automatisée. Tout d'abord, nous nous concentrons sur l'apprentissage d'une architecture efficace pour les problèmes de traitement d'images. Nous proposons un modèle dans lequel nous pouvons guider la procédure d'apprentissage d'architecture en spécifiant un budget et une fonction de coût fixes. Ensuite, nous considérons le problème de la classification de séquences, où un modèle peut être encore plus efficace en adaptant dynamiquement sa taille à la complexité du signal à venir. Enfin, nous abordons le problème de l'efficacité sous l'angle de l'apprentissage par transfert, une procédure d'apprentissage pouvant être rendue encore plus efficace si elle s'appuie sur des connaissances acquises lors d'expériences précédentes. Nous explorons les architectures modulaires dans le scénario de l'apprentissage continuel et présentons un nouveau benchmark permettant une évaluation fine des différents types de transfert<br>The recent increase in computation power and the ever-growing amount of data available ignited the rise in popularity of deep learning. However, the expertise, the amount of data, and the computing power necessary to build such algorithms as well as the memory footprint and the inference latency of the resulting system are all obstacles preventing the widespread use of these methods. In this thesis, we propose several methods allowing to make a step towards a more efficient and automated procedure to build deep learning models. First, we focus on learning an efficient architecture for image processing problems. We propose a new model in which we can guide the architecture learning procedure by specifying a fixed budget and cost function. Then, we consider the problem of sequence classification, where a model can be even more efficient by dynamically adapting its size to the complexity of the signal to come. We show that both approaches result in significant budget savings. Finally, we tackle the efficiency problem through the lens of transfer learning. Arguing that a learning procedure can be made even more efficient if, instead of starting tabula rasa, it builds on knowledge acquired during previous experiences. We explore modular architectures in the continual learning scenario and present a new benchmark allowing a fine-grained evaluation of different kinds of transfer
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Keisler, Julie. "Automated Deep Learning : algorithms and software for energy sustainability." Electronic Thesis or Diss., Université de Lille (2022-....), 2025. http://www.theses.fr/2025ULILB001.

Der volle Inhalt der Quelle
Annotation:
Les technologies actuelles ne permettant le stockage que par des moyens coûteux et peu efficaces, l'électricité reste difficile à stocker à grande échelle. Pour le bon fonctionnement du réseau, il est ainsi important qu'à tout instant, l'électricité injectée dans le réseau soit égale à l'électricité consommée. Historiquement et encore aujourd'hui, pour maintenir cet équilibre, les moyens de production sont planifiés par anticipation de la demande; d'où l'importance de prévoir aussi précisément que possible la consommation électrique. Avec l'intégration massive des énergies renouvelables dont la production est intermittente et dépendante des conditions météorologiques, la production devient de plus en plus instable et la gestion de l'équilibre se complexifie : des prévisions des productions éolienne et photovoltaïque sont désormais indispensables.Les prévisions de consommation et de production sont réalisées à l'aide de modèles d'apprentissage statistique, qui modélisent le signal en se basant sur ses valeurs passées et des données de variables dites explicatives. Pour construire un modèle performant, il est nécessaire de choisir les variables explicatives considérées, le type de modèle ainsi que sa paramétrisation. Au vu du très grand nombre de signaux à prévoir, il pourrait être intéressant d'automatiser ces choix pour créer automatiquement des modèles compétitifs. Le textit{Machine Learning} automatisé, également appelé AutoML pour textit{Automated Machine Learning}, est le processus d'automatisation de la génération de modèles d'apprentissage optimisés en fonction du cas d'usage. De nombreux outils d'AutoML ont été développés depuis une dizaine d'années, mais la plupart se concentrent sur l'optimisation de modèles de classification ou de régression sur des données tabulaires, ou sur l'optimisation d'architectures de réseaux de neurones pour le traitement d'images ou de textes. Ils ne sont donc pas forcément adaptés à la prévision de séries temporelles telles que la consommation ou production électrique.Cette thèse est un premier pas vers l'automatisation de la génération de modèles pour les prévisions des séries temporelles nécessaires à la gestion du système électrique. Les travaux de recherche se sont concentrés sur le développement du textit{package} Python DRAGON, qui propose divers outils pour optimiser des modèles bien particuliers, mais largement utilisés: les réseaux de neurones. Le textit{package} rend possible la création d'espaces de recherche plus ou moins flexibles, englobant une grande diversité d'architectures et qui permettent d'optimiser à la fois l'architecture et les hyperparamètres. Ces espaces de recherche sont encodés par des graphes acycliques dirigés, où les nœuds sont des opérations, paramétrées par divers hyperparamètres, et les arêtes sont les connexions entre ces nœuds. Afin de naviguer dans ces espaces de recherche à base de graphes et d'en optimiser les structures, divers algorithmes de recherche à base de métaheuristiques et de bandits sont proposés dans le textit{package}. Après une présentation de DRAGON, cette thèse détaille comment ce textit{package} est utilisé pour les prévisions de consommation et de production électrique et permet de générer des modèles à l'état de l'art dans ces deux cas d'usage industriels<br>Current technologies only allow storage by expensive and inefficient means, which makes it difficult to store electricity on a large scale. For the grid to function properly, electricity fed into the grid must match electricity used at all times. Historically, and still today, production resources are planned in advance of demand to maintain this balance. It is therefore crucial to forecast electricity consumption as accurately as possible. The integration of renewable energies, whose production is intermittent and dependent on weather conditions, is making the balance increasingly unstable. Managing this is becoming more complex, making forecasting wind and photovoltaic production now essential.Statistical learning models are used to make consumption and production forecasts. These models take past values and data from explanatory variables and use them to model the signal. To build efficient models, one must choose the input variables, the type of model, and its parameters. Given the vast number of signals to be forecasted, it would be beneficial to automate these choices to create competitive models. Automated Machine Learning (AutoML) is the process of automating the generation of learning models optimized according to the use case. Over the last ten years, numerous AutoML tools have been developed. However, most of them focus on optimizing classification or regression models on tabular data, or on optimizing neural network architectures for image or text processing. These tools are not appropriate for optimizing electricity consumption and production forecasting models.This thesis is a progress towards automating the generation of time series forecasting models required for power system management. The research work focused on developing the DRAGON Python package, which offers a range of tools for specific yet widely used models: neural networks. DRAGON can be used to create flexible search spaces encompassing a wide variety of neural networks by simultaneity optimizing the architecture and the hyperparameters. They are encoded by Directed Acyclic Graphs (DAGs), where the nodes are operations, parameterised by various hyperparameters, and the edges are the connections between these nodes. To navigate these graph-based search spaces and optimize their structures, the package proposes various search algorithms based on meta-heuristics and bandits-approaches. This thesis details how DRAGON is used for electricity consumption and production forecasts, enabling state-of-the-art models to be generated for these two industrial use cases
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Zouambi, Meyssa. "Optimizing deep learning : navigating the field of neural architecture search from theory to practice." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB054.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine de l'apprentissage profond, la conception et l'optimisation des architectures neuronales sont essentielles pour obtenir des modèles performants. Ce processus, basé sur des essais et erreurs, a été effectué manuellement pendant des décennies et consomment beaucoup de temps et de ressources. Ce travail se penche sur le domaine de la recherche d'architecture neurale, ou Neural Architecture Search (NAS), une technique prometteuse qui vise à automatiser ce processus. Ce travail explore les complexités des NAS, mettant en évidence les défis à naviguer dans l'immense espace de recherche des architectures potentielles. Il étudie des méthodes basées sur la recherche locale et propose deux algorithmes efficaces centrés autour de celle-ci, à savoir LS-Weight et LS-PON. Chaque méthode offre une approche distinctive pour intégrer des connaissances pendant la recherche afin de proposer des stratégies plus efficientes et frugale. De plus, étant donné que les modèles d'apprentissage profond sont souvent régis par plusieurs objectifs concurrents tels que la précision, la complexité, et l'efficacité de calcul, notre recherche s'intéresse également à l'optimisation multi-objectifs au sein des NAS. Cela garantit que les architectures résultantes sont non seulement performantes pour la tâche pour laquelle elles sont conçues, mais également alignées sur plusieurs critères essentiels pour les applications réelles. À cet effet, ce travail propose une nouvelle approche au NAS multi-objectif qui aborde certains problèmes trouvés dans la littérature. De plus, il analyse la complexité du passage des benchmarks aux données réelles, en proposant un protocole qui guide les praticiens dans leur utilisation des NAS pour leurs problèmes. Enfin, reconnaissant l'importance des applications du domaine, ce travail présente des expérimentations basées sur l'imagerie médicale pour valider ces contributions. Il présente également une étude détaillée sur l'utilisation des NAS dans le domaine de la santé, en analysant plus de 40 contributions dans la littérature et en offrant un point de départ pour de futurs travaux du domaine<br>In the realm of deep learning, the design and optimization of neural architectures are crucial for achieving high-performance models. This process, based on trial and error, has been done manually for decades and is both time and resource-consuming. This thesis delves into the domain of Neural Architecture Search (NAS), a promising technique that seeks to automate this process. The research explores the complexities inherent in NAS, highlighting the challenges of navigating the vast search space of potential architectures. It investigates methods based on Local Search and proposes two efficient algorithms built around it, namely LS-Weight and LS-PON. Each method offers a distinctive approach to integrate knowledge during the search to offer efficient and more frugal strategies to NAS. Furthermore, as deep learning models are often governed by multiple competing objectives such as accuracy, complexity, and computational efficiency, this research also delves into multi-objective optimization within NAS. This ensures that the resulting architectures are not only performant for the task they are designed for but also aligned with multiple criteria essential for real-world applications. For this purpose, this research offers an alternative approach to multi-objective NAS that addresses certain issues found in strategies from the literature. On top of that, it also analyzes the complexity of moving from benchmarks to real data, offering a protocol that guides practitioners in their usage of NAS for their applications. Lastly, by recognizing the importance of domain applications, this work focuses on healthcare images to validate these contributions. It also presents a detailed survey on the use of NAS for healthcare, by analyzing more than 40 contributions in the literature and laying the ground for future works in the field
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Egele, Romain. "Optimization of Learning Workflows at Large Scale on High-Performance Computing Systems." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG025.

Der volle Inhalt der Quelle
Annotation:
Au cours de la dernière décennie, l'apprentissage automatique a connu une croissance exponentielle, portée par l'abondance de jeux de données, les avancées algorithmiques et l'augmentation de la puissance de calcul.Simultanément, le calcul haute performance (HPC) a évolué pour répondre à la demande croissante en calculs, offrant des ressources pour relever des défis scientifiques complexes. Cependant, les processus d'apprentissage machines sont souvent séquentiels, ce qui rend difficile leur mise à l'échelle sur les systèmes HPC qui sont eux parallèles par nature. Les processus d'apprentissage machines sont construits à partir de modules qui offrent de nombreux paramètres configurables, des politiques d'augmentation des données, aux procédures d'entraînement et aux architectures de modèles. Cette thèse se concentre sur l'optimisation des hyperparamètres des processus d'apprentissage sur des systèmes HPC, tels que Polaris à Argonne National Laboratory. Les principales contributions comprennent (1) l'optimisation Bayésienne parallèle décentralisée et asynchrone, (2) son extension à plusieurs objectifs, (3) l'intégration de méthodes de rejet précoce et (4) la quantification de l'incertitude des réseaux de neurones profonds. De plus, un logiciel en libre accès, DeepHyper, est fourni, encapsulant les algorithmes proposés pour faciliter la recherche et l'application. La thèse met en évidence l'importance des méthodes d'optimisation Bayésienne des hyperparamètres pour les processus d'apprentissage, cruciales pour exploiter efficacement les vastes ressources de calcul des systèmes HPC modernes<br>In the past decade, machine learning has experienced exponential growth, propelled by abundant datasets, algorithmic advancements, and increased computational power. Simultaneously, high-performance computing (HPC) has evolved to meet rising computational demands, offering resources to tackle complex scientific challenges.However, machine learning is often a sequential process, making it difficult to scale on HPC systems. Machine learning workflows are built from modules offering numerous configurable parameters, from data augmentation policies to training procedures and model architectures. This thesis focuses on the hyperparameter optimization of learning workflows on large-scale HPC systems, such as the Polaris at the Argonne Leadership Computing Facility.Key contributions include (1) asynchronous decentralized parallel Bayesian optimization, (2) extension to multi-objective, (3) integration of early discarding, and (4) uncertainty quantification of deep neural networks. Furthermore, an open-source software, DeepHyper, is provided, encapsulating the proposed algorithms to facilitate research and application. The thesis highlights the importance of scalable Bayesian optimization methods for the hyperparameter optimization of learning workflows, which is crucial for effectively harnessing the vast computational resources of modern HPC systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Pham, Huy-Hieu. "Architectures d'apprentissage profond pour la reconnaissance d'actions humaines dans des séquences vidéo RGB-D monoculaires : application à la surveillance dans les transports publics." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30145.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la reconnaissance d'actions humaines dans des séquences vidéo RGB-D monoculaires. La question principale est, à partir d'une vidéo ou d'une séquence d'images donnée, de savoir comment reconnaître des actions particulières qui se produisent. Cette tâche est importante et est un défi majeur à cause d'un certain nombre de verrous scientifiques induits par la variabilité des conditions d'acquisition, comme l'éclairage, la position, l'orientation et le champ de vue de la caméra, ainsi que par la variabilité de la réalisation des actions, notamment de leur vitesse d'exécution. Pour surmonter certaines de ces difficultés, dans un premier temps, nous examinons et évaluons les techniques les plus récentes pour la reconnaissance d'actions dans des vidéos. Nous proposons ensuite une nouvelle approche basée sur des réseaux de neurones profonds pour la reconnaissance d'actions humaines à partir de séquences de squelettes 3D. Deux questions clés ont été traitées. Tout d'abord, comment représenter la dynamique spatio-temporelle d'une séquence de squelettes pour exploiter efficacement la capacité d'apprentissage des représentations de haut niveau des réseaux de neurones convolutifs (CNNs ou ConvNets). Ensuite, comment concevoir une architecture de CNN capable d'apprendre des caractéristiques spatio-temporelles discriminantes à partir de la représentation proposée dans un objectif de classification. Pour cela, nous introduisons deux nouvelles représentations du mouvement 3D basées sur des squelettes, appelées SPMF (Skeleton Posture-Motion Feature) et Enhanced-SPMF, qui encodent les postures et les mouvements humains extraits des séquences de squelettes sous la forme d'images couleur RGB. Pour les tâches d'apprentissage et de classification, nous proposons différentes architectures de CNNs, qui sont basées sur les modèles Residual Network (ResNet), Inception-ResNet-v2, Densely Connected Convolutional Network (DenseNet) et Efficient Neural Architecture Search (ENAS), pour extraire des caractéristiques robustes de la représentation sous forme d'image que nous proposons et pour les classer. Les résultats expérimentaux sur des bases de données publiques (MSR Action3D, Kinect Activity Recognition Dataset, SBU Kinect Interaction, et NTU-RGB+D) montrent que notre approche surpasse les méthodes de l'état de l'art. Nous proposons également une nouvelle technique pour l'estimation de postures humaines à partir d'une vidéo RGB. Pour cela, le modèle d'apprentissage profond appelé OpenPose est utilisé pour détecter les personnes et extraire leur posture en 2D. Un réseau de neurones profond est ensuite proposé pour apprendre la transformation permettant de reconstruire ces postures en trois dimensions. Les résultats expérimentaux sur la base de données Human3.6M montrent l'efficacité de la méthode proposée. Ces résultats ouvrent des perspectives pour une approche de la reconnaissance d'actions humaines à partir des séquences de squelettes 3D sans utiliser des capteurs de profondeur comme la Kinect. Nous avons également constitué la base CEMEST, une nouvelle base de données RGB-D illustrant des comportements de passagers dans les transports publics. Elle contient 203 vidéos de surveillance collectées dans une station du métro incluant des événements "normaux" et "anormaux". Nous avons obtenu des résultats prometteurs sur cette base en utilisant des techniques d'augmentation de données et de transfert d'apprentissage. Notre approche permet de concevoir des applications basées sur des techniques de l'apprentissage profond pour renforcer la qualité des services de transport en commun<br>This thesis is dealing with automatic recognition of human actions from monocular RGB-D video sequences. Our main goal is to recognize which human actions occur in unknown videos. This problem is a challenging task due to a number of obstacles caused by the variability of the acquisition conditions, including the lighting, the position, the orientation and the field of view of the camera, as well as the variability of actions which can be performed differently, notably in terms of speed. To tackle these problems, we first review and evaluate the most prominent state-of-the-art techniques to identify the current state of human action recognition in videos. We then propose a new approach for skeleton-based action recognition using Deep Neural Networks (DNNs). Two key questions have been addressed. First, how to efficiently represent the spatio-temporal patterns of skeletal data for fully exploiting the capacity in learning high-level representations of Deep Convolutional Neural Networks (D-CNNs). Second, how to design a powerful D-CNN architecture that is able to learn discriminative features from the proposed representation for classification task. As a result, we introduce two new 3D motion representations called SPMF (Skeleton Posture-Motion Feature) and Enhanced-SPMF that encode skeleton poses and their motions into color images. For learning and classification tasks, we design and train different D-CNN architectures based on the Residual Network (ResNet), Inception-ResNet-v2, Densely Connected Convolutional Network (DenseNet) and Efficient Neural Architecture Search (ENAS) to extract robust features from color-coded images and classify them. Experimental results on various public and challenging human action recognition datasets (MSR Action3D, Kinect Activity Recognition Dataset, SBU Kinect Interaction, and NTU-RGB+D) show that the proposed approach outperforms current state-of-the-art. We also conducted research on the problem of 3D human pose estimation from monocular RGB video sequences and exploited the estimated 3D poses for recognition task. Specifically, a deep learning-based model called OpenPose is deployed to detect 2D human poses. A DNN is then proposed and trained for learning a 2D-to-3D mapping in order to map the detected 2D keypoints into 3D poses. Our experiments on the Human3.6M dataset verified the effectiveness of the proposed method. These obtained results allow opening a new research direction for human action recognition from 3D skeletal data, when the depth cameras are failing. In addition, we collect and introduce in this thesis, CEMEST database, a new RGB-D dataset depicting passengers' behaviors in public transport. It consists of 203 untrimmed real-world surveillance videos of realistic "normal" and "abnormal" events. We achieve promising results on CEMEST with the support of data augmentation and transfer learning techniques. This enables the construction of real-world applications based on deep learning for enhancing public transportation management services
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Recherche Automatique d'Architecture Neuronale"

1

Cárdenas, Janina Di Pierro, and Renata De Rugeriis Juárez. "Inteligencia artificial y SoftPower de la traducción asistida y automática: perspectivas en el proceso de enseñanza-aprendizaje de idiomas." In Traduction automatique et usages sociaux des langues. Quelle conséquences pour la diversité linguistique ? Observatoire européen du plurilinguisme, 2021. http://dx.doi.org/10.3917/oep.beacc.2021.01.0083.

Der volle Inhalt der Quelle
Annotation:
Intelligence artificielle et softpower de la traduction assist&amp;#233;e par ordinateur et de la traduction automatique : perspectives sur le processus d&amp;#8217;enseignement et d&amp;#8217;apprentissage des langues. En raison de la croissance de l&amp;#8217;utilisation des traducteurs automatiques, il est important de se poser la question &amp;#225; propos de quand ou bien si l&amp;#8217;intelligence artificielle a p&amp;#233;n&amp;#233;tr&amp;#233; ce domaine de l&amp;#8217;enseignement-apprentissage des langues. Malgr&amp;#233; les nombreux traducteurs automatiques et d&amp;#8217;outils de traduction assist&amp;#233;e existants, il est &amp;#233;vident que la main de l&amp;#8217;homme est unique. N&amp;#233;anmoins, si le travail d&amp;#8217;un traducteur pourrait b&amp;#233;n&amp;#233;ficier d&amp;#8217;un gain de temps de temps, en m&amp;#234;me temps que d&amp;#8217;une am&amp;#233;lioration concernant le choix lexical, il vaut la peine d&amp;#8217;&amp;#233;tudier ce domaine dans l&amp;#8217;int&amp;#233;r&amp;#234;t de la traduction. Dans cette &amp;#233;tude, on se propose d&amp;#8217;analyser l&amp;#8217;intelligence artificielle dans le champ de la traduction et enseignement des langues &amp;#233;trang&amp;#232;res, en s&amp;#8217;appuyant sur les outils de la traduction automatique d&amp;#233;j&amp;#224; existants. &amp;#192; partir d&amp;#8217;une analyse minutieuse de la litt&amp;#233;rature et recherches disponibles, on examinera la traduction automatique neuronale (NMT), le ICALL, d&amp;#233;rivant du CALL, pour terminer par les outils de la traduction automatique tels que Google Translator, Translation Online et d&amp;#8217;autres, qui s&amp;#8217;am&amp;#233;liorent avec le temps, malgr&amp;#233; le fait que le traducteur humain doive r&amp;#233;viser dans la phase de post-&amp;#233;dition. Pour ce faire, nous avons analys&amp;#233; un corpus bas&amp;#233; sur les commentaires des traducteurs dans des groupes priv&amp;#233;s de Facebook et LinkedIn &amp;#225; propos de la r&amp;#233;vision. Dans le m&amp;#234;me temps, nous avons constat&amp;#233; que l&amp;#8217;intelligence artificielle remplacera les professeurs, mais red&amp;#233;finira leur r&amp;#244;le en tant que professeurs, les convertissant &amp;#171; des guides lat&amp;#233;raux &amp;#187; (Morrison, 2014), puisque avec l&amp;#8217;apprentissage des langues utilisant les outils de l&amp;#8217;intelligence artificielle dans le domaine de la correction, de la notation et des papiers administratifs, les professeurs pourraient avoir plus de temps pour coordonner le processus de d&amp;#8217;apprentissage et orienter leurs &amp;#233;tudiants. Cette recherche se compose de trois parties : r&amp;#233;vision bibliographique et de ces &amp;#233;tudes ant&amp;#233;rieures et analyse des outils de traduction automatique, &amp;#233;tude d&amp;#8217;un corpus des commentaires de traducteurs et enfin, implication/int&amp;#233;gration de l&amp;#8217;intelligence artificielle dans les domaines de la traduction et de l&amp;#8217;apprentissage des langues.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ballier, Nicolas, and Maria Zimina-Poirot. "Littératie de la traduction automatique (TA) neuronale et traduction spécialisée : s’approprier les outils de la TA au travers de projets de recherche interdisciplinaires." In Human Translation and Natural Language Processing Towards a New Consensus? Fondazione Università Ca’ Foscari, 2023. http://dx.doi.org/10.30687/978-88-6969-762-3/011.

Der volle Inhalt der Quelle
Annotation:
We present a set of approaches to facilitate the integration of Neural Machine Translation (NMT) in teaching and research favouring an interdisciplinary perspective. The study suggests that a nuanced comparison of NMT generated translations requires translation experts to move from passive consumption to active participation in the construction of controlled models. This transition requires an understanding of the fundamentals of NMT, which calls for changes in pedagogical models to promote digital literacy while maintaining the standards of professional translation education in line with translation competence frameworks.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Larsonneur, Claire. "Alexa, Siri : la diversité linguistique au prisme des agents conversationnels." In Traduction automatique et usages sociaux des langues. Quelle conséquences pour la diversité linguistique ? Observatoire européen du plurilinguisme, 2021. http://dx.doi.org/10.3917/oep.beacc.2021.01.0179.

Der volle Inhalt der Quelle
Annotation:
Les assistants intelligents, comme Alexa ou Siri, accompagnent la num&amp;#233;risation de nombre d&amp;#8217;interactions humaines, qu&amp;#8217;il s&amp;#8217;agisse de comportements d&amp;#8217;achat, de recherche d&amp;#8217;information ou de mise en relation entre personnes. Con&amp;#231;us au d&amp;#233;part dans un environnement anglophone par Amazon, Apple ou Microsoft, ces outils servent les strat&amp;#233;gies de gains de parts de march&amp;#233;s pour ces entreprises qui s&amp;#8217;en servent comme portail d&amp;#8217;acc&amp;#232;s &amp;#224; leurs services. Les assistants traduisent de la voix en texte et vice-versa et doivent pouvoir s&amp;#8217;adapter aux contraintes locales en termes d&amp;#8217;accents, de politique de genre ou de codes culturels par exemple, ce qui serait impossible &amp;#224; grande &amp;#233;chelle sans l&amp;#8217;utilisation des techniques de traduction neuronale. Dans cette communication, on reviendra sur les politiques linguistiques qui ont accompagn&amp;#233; le d&amp;#233;veloppement d&amp;#8217;Alexa et de Siri, en en retra&amp;#231;ant l&amp;#8217;historique. Puis on reviendra sur les enjeux linguistiques qu&amp;#8217;ils posent, notamment dans le traitement des erreurs et omissions, et leur articulation &amp;#224; un &amp;#233;cosyst&amp;#232;me d&amp;#8217;outils automatis&amp;#233;s de maniement du langage, lesquels risquent &amp;#224; terme de produire une standardisation des usages de la langue, au sein de chaque langue et par calque vis-&amp;#224;-vis de l&amp;#8217;anglais am&amp;#233;ricain. Enfin on explorera la question des enjeux soci&amp;#233;taux, &amp;#233;conomiques et &amp;#233;thiques associ&amp;#233;s &amp;#224; l&amp;#8217;usage g&amp;#233;n&amp;#233;ralis&amp;#233; de tels outils, con&amp;#231;us et mis en &amp;#339;uvre par des acteurs &amp;#233;conomiques en situation hyperdominante. Se posent notamment des questions de s&amp;#233;curit&amp;#233;, de gestion des donn&amp;#233;es, de censure&amp;#8230;
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie