Academic literature on the topic 'L'apprentissage profond'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'L'apprentissage profond.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "L'apprentissage profond":

1

Blondin, Michel. "Vie urbaine et animation sociale." Recherches sociographiques 9, no. 1-2 (April 12, 2005): 111–19. http://dx.doi.org/10.7202/055396ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les animateurs sociaux de Montréal formés soit en service social, soit en sociologie, soit dans les deux disciplines, ont eu tôt fait de prendre connaissance des textes sociologiques québécois portant sur la vie urbaine car ces textes sont peu nombreux et en somme assez pauvres. Ils se tournèrent alors vers la sociologie américaine et la sociologie française, ce qui fut encore décevant, même si la sociologie américaine nous a légué un plus grand nombre de documents, dont peu cependant dépassent l'écologie ou la déviance. Mais pourquoi les animateurs sociaux se tournèrent-ils vers la sociologie ? Qu'y cherchaient-ils ? Qu'y ont-ils trouvé ? L'animation sociale en milieu urbain s'attaque à des réalités difficiles à saisir. Discipline d'intervention à la recherche d'elle-même, elle consacre un important effort de réflexion à l'explicitation de ses intuitions profondes et a l'expérimentation de ses techniques de base. Il lui est cependant nécessaire, parallèlement, de connaître et de comprendre la réalité urbaine dans ce qu'elle a de plus profond. L'animateur social se sent un peu comme l'ancêtre-chirurgien qui découvre laborieusement les techniques chirurgicales et doit les appliquer à un organe, le cœur par exemple, alors même qu'il ne connaît pas le rôle ou le fonctionnement de cet organe central parce que les scientifiques ne le lui ont pas encore appris. Les animateurs sociaux du Conseil des œuvres travaillent depuis quelques années, quatre exactement, dans certains quartiers ouvriers de Montréal, soit: Saint-Henri, la Pointe Saint-Charles, la Petite Bourgogne, Centre-Sud et Hochelaga. Ces quartiers, où vivent 220,000 personnes, près de 18 pour cent de la population de la ville de Montréal, sont en même temps ceux où habite la population la plus défavorisée de la région métropolitaine. L'animateur se sent une responsabilité particulière et originale et il sait qu'il engage l'avenir. Son travail influencera l'avenir de Montréal car ses interventions dans des quartiers en transformation auront un impact certain sur l'ensemble de Montréal. Il engage aussi l'avenir de la dizaine de milliers de personnes qu'il rejoint plus ou moins directement par la mise en branle qu'il provoque. Il ne peut, enfin, jamais oublier que celles-ci sont parmi les plus défavorisées de Montréal. Cette responsabilité de l'animateur social est d'autant plus écrasante à certains jours que sa tâche nécessite qu'il explicite progressivement mais rapidement deux inconnues: son propre métier, l'animation sociale; son champ d'action, quelques quartiers d'une région métropolitaine, cœur d'une société en pleine transformation. Je voudrais présenter brièvement trois défis que, comme animateurs sociaux, nous devons relever dans notre travail quotidien: 1. La compréhension de la vie urbaine: ce qu'elle est, ce qu'elle deviendra; 2. Le développement de l'autonomie des groupes engagés dans l'apprentissage de la rationalité dans l'action collective; 3. La participation de cette population à la vie urbaine par l'accès aux décisions.
2

Fleck, Stéphanie, and Luc Massou. "Le numérique pour l’apprentissage collaboratif : nouvelles interfaces, nouvelles interactions." Médiations et médiatisations, no. 5 (January 29, 2021): 3–10. http://dx.doi.org/10.52358/mm.vi5.191.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes éducatifs, de l'école à l'université, sont confrontés à un contexte de profonds changements qui transforment les pratiques d'enseignement et l'apprentissage formel. Avec l'ambition de permettre aux apprenants d'apprendre, de faire, d'être et de décider individuellement et collectivement, dans un monde complexe en perpétuel mouvement, les institutions encouragent la mise en œuvre d'approches collaboratives. Au cœur de ces enjeux, les technologies numériques voient également leur diversité s'accroître rapidement. Les interfaces de nouvelle génération, telles que les interfaces tangibles, de réalité mixte ou robotiques, modifient les interactions avec les autres et les connaissances en offrant des paradigmes d'interaction Homme-machine différents de ceux offerts par les interfaces écran-clavier-souris. L'objectif de ce cinquième numéro thématique, délibérément interdisciplinaire, est de s'interroger sur l'impact et la place des technologies numériques - y compris celles de nouvelle génération - pour l'apprentissage collaboratif. Les interactions avec le savoir, avec les autres au sein des communautés d'apprentissage ou d'enseignement, les systèmes numériques eux-mêmes sont tour à tour au centre des problématiques des auteurs de ce numéro. Leurs douze contributions, par des approches complémentaires, enrichissent le corpus de connaissances empiriques et méthodologiques. Ils examinent les approches collaboratives entre enseignants, l'engagement à collaborer entre apprenants en présentiel ou à distance, la construction de l'apprentissage qui en résulte, et l'influence des systèmes sur ces derniers. Cela permet d’identifier plusieurs pistes à approfondir dans les travaux à mener sur cette thématique des nouvelles interfaces et interactions numériques pour l’apprentissage collaboratif.
3

ADAMCZYK, Willian, Philipp EHRL, and Leonardo MONASTERIO. "Compétences et transitions professionnelles au Brésil." Revue internationale du Travail, May 10, 2024. http://dx.doi.org/10.1111/ilrf.12309.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RésuméLes auteurs font appel à l'apprentissage profond et au traitement du langage naturel pour construire des indicateurs de compétences et de distance professionnelle comparables entre pays, qu'ils utilisent pour produire des faits descriptifs sur les transitions professionnelles et la distribution des salaires au Brésil. À partir de données sur l'ensemble des contrats de travail formels conclus entre 2003 et 2018, ils constatent que les travailleurs mobilisant surtout des compétences cognitives non routinières sont mieux lotis en termes d'emploi, de salaire et de transition professionnelle. Ils observent des signes de progrès technologique biaisé et de polarisation de l'emploi après la crise économique brésilienne de 2014.
4

Nunes, Clarice. "“SOUVENIR DE CLASSE”: MEMÓRIAS E NARRATIVAS A PARTIR DO SENSÍVEL." RevistAleph, no. 20 (December 1, 2013). http://dx.doi.org/10.22409/revistaleph.v0i20.24930.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Trata-se de uma reflexão sobre o saber da experiência vivida em sala de aula com estudantes do Curso de Pós-Graduação em Educação na Disciplina Memórias e Narrativas (2011), à luz da relação com o Sensível tal qual definido por Danis Bois na perspectiva da psicopedagogia perceptiva. As aulas foram concebidas como ateliês nos quais os estudantes se relacionaram com sua experiência de memória, usando as ferramentas do aporte teórico do Sensível: a relação com o silêncio; a diretividade informativa e a reciprocidade atuante. Ao produzir memórias através de narrativas, os estudantes enfrentaram o desafio de negociar com dois tipos de escrita: a de implicação e a de explicação. O Paradigma do Sensível revelou-se postura epistemológica enriquecedora da prática educativa ao favorecer a criação de uma compreensão profunda e humana do gesto de aprender, de conjugar razão e sentimento, de elaborar uma escrita do Sensível e levantar perguntas que mudam representações cristalizadas e movem ideias.Palavras-chave: Memória e História; Memórias e Narrativas; Memória Escolar;Memória e Paradigma do SensívelRésuméIl s'agit d'une réflexion sur le savoir de l'expérience vécue dans des classes avecles étudiants de l' enseignement post-universitaire de la Discipline Memoires etNarratives ( 2011 ), à la lumière du rapport au “Sensible”, tel qu´il a été defini par Danis Bois dans la perspective de la Psychopédagogie Perceptive. Les classes ont été conçus comme des ateliers où les étudiants ont posé des problèmes vécus avec leur rapport à la mémoire, en utilisant les outils du support théorique du Sensible: la relation avec le Silence; la Directivité Informative et la Réciprocité Actuante. En produisant des memoires à travers les narratives, les étudiants ont été mis au défi de faire face à la écriture de l´implication et à la écriture de l´explication. Le Paradigme du Sensible s´est révélé comme une position épistémologique permettant d´enrichir la pratique éducative pour promouvoir la création d'une profonde compréhension de l'apprentissage comme un geste humain, de relier la raison et le sentiment, et d'élaborer une écriture du Sensible, en soulevant des questions qui changent des représentations et bougent des idées.Mots-clés: Mémoire et Histoire - Mémoires et Narratives - Mémoire de l´école –Mémoire et Paradigme du Sensible

Dissertations / Theses on the topic "L'apprentissage profond":

1

Millan, Mégane. "L'apprentissage profond pour l'évaluation et le retour d'information lors de l'apprentissage de gestes." Thesis, Sorbonne université, 2020. http://www.theses.fr/2020SORUS057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Apprendre un nouveau sport, ou un métier manuel est complexe. En effet, de nombreux gestes doivent être assimilés afin d’atteindre un bon niveau de compétences. Cependant, l’apprentissage de ces gestes ne peut se faire seul. En effet, il est nécessaire de voir la réalisation du geste d’un œil expert afin d’indiquer les corrections pour s’améliorer. Or les experts, que ce soit en sport ou dans les métiers manuels, sont peu disponibles pour analyser et évaluer les gestes d’un novice. Afin d’aider les experts dans cette tâche d’analyse, il est possible de développer des coachs virtuels. Selon les domaines, le coach va posséder plus ou moins de compétences, mais une évaluation selon des critères précis est toujours à privilégier. Fournir un retour sur les erreurs commises est également essentiel pour l’apprentissage d’un novice. Dans cette thèse, différentes solutions pour développer des coachs virtuels les plus efficaces possibles sont proposées. Dans un premier temps, et comme évoqué précédemment, il est nécessaire d’évaluer les gestes. Dans cette optique, un premier travail a consisté à comprendre les enjeux de l’analyse de gestes automatique, afin de développer un algorithme d’évaluation automatique qui soit le plus performant possible. Par la suite, deux algorithmes d’évaluation automatique de la qualité de gestes sont proposés. Ces deux algorithmes fondés sur l’apprentissage profond, ont par la suite été testés sur deux bases de données de gestes différentes afin d’évaluer leur généricité. Une fois l’évaluation réalisée, il est nécessaire de fournir un retour d’information pertinent à l’apprenant sur ses erreurs. Afin de garder une continuité dans les travaux réalisés, ce retour est également fondé sur les réseaux de neurones et l’apprentissage profond. En s’inspirant des méthodes d’explicabilité de réseaux de neurones, une méthode a été développée. Elle permet de remonter aux instants du geste où des erreurs ont été commises selon le modèle d’évaluation. Enfin coupler cette méthode à de la segmentation sémantique, permet d’indiquer aux apprenants quelle partie du geste a été mal réalisée, mais également de lui fournir des statistiques et une courbe d’apprentissage
Learning a new sport or manual work is complex. Indeed, many gestures have to be assimilated in order to reach a good level of skill. However, learning these gestures cannot be done alone. Indeed, it is necessary to see the gesture execution with an expert eye in order to indicate corrections for improvement. However, experts, whether in sports or in manual works, are not always available to analyze and evaluate a novice’s gesture. In order to help experts in this task of analysis, it is possible to develop virtual coaches. Depending on the field, the virtual coach will have more or less skills, but an evaluation according to precise criteria is always mandatory. Providing feedback on mistakes is also essential for the learning of a novice. In this thesis, different solutions for developing the most effective virtual coaches are proposed. First of all, and as mentioned above, it is necessary to evaluate the gestures. From this point of view, a first part consisted in understanding the stakes of automatic gesture analysis, in order to develop an automatic evaluation algorithm that is as efficient as possible. Subsequently, two algorithms for automatic quality evaluation are proposed. These two algorithms, based on deep learning, were then tested on two different gestures databases in order to evaluate their genericity. Once the evaluation has been carried out, it is necessary to provide relevant feedback to the learner on his errors. In order to maintain continuity in the work carried out, this feedback is also based on neural networks and deep learning. A method has been developed based on neural network explanability methods. It allows to go back to the moments of the gestures when errors were made according to the evaluation model. Finally, coupled with semantic segmentation, this method makes it possible to indicate to learners which part of the gesture was badly performed, and to provide them with statistics and a learning curve
2

Martinez, Coralie. "Classification précoce de séquences temporelles par de l'apprentissage par renforcement profond." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La classification précoce (CP) de séquences temporelles est un sujet de recherche récent dans le domaine de l'analyse des données séquentielles. Le problème consiste à attribuer une étiquette à des données qui sont collectées séquentiellement avec de nouvelles mesures arrivant au cours du temps. La prédiction d’une étiquette doit être faite en utilisant le moins de mesures possible dans la séquence. Le problème de CP a une importance capitale pour de nombreuses applications, allant du contrôle des processus à la détection de fraude. Il est particulièrement intéressant pour les applications qui cherchent à minimiser les coûts d’acquisition des mesures, ou qui cherchent une prédiction rapide des étiquettes afin de pouvoir entreprendre des actions rapides. C'est par exemple le cas dans le domaine de la santé, où il est nécessaire de fournir dès que possible un diagnostic médical à partir de la séquence d'observations médicales collectées au fil du temps. Un autre exemple est la maintenance prédictive où le but est d’anticiper la panne d’une machine à partir des signaux de ses capteurs. Dans ce travail de doctorat, nous avons développé une nouvelle approche pour ce problème, basée sur la formulation d'un problème de prise de décision séquentielle. Nous considérons qu’un modèle de CP doit décider entre classer une séquence incomplète ou retarder la prédiction afin de collecter des mesures supplémentaires. Plus précisément, nous décrivons ce problème comme un processus de décision de Markov partiellement observable noté EC-POMDP. L'approche consiste à entraîner un agent pour la CP à partir d’apprentissage par renforcement profond dans un environnement caractérisé par le EC-POMDP. La principale motivation de cette approche est de proposer un modèle capable d’effectuer la CP de bout en bout, en étant capable d’apprendre simultanément les caractéristiques optimales dans les séquences pour la classification et les décisions stratégiques optimales pour le moment de la prédiction. En outre, la méthode permet de définir l’importance du temps par rapport à la précision de la prédiction dans la définition des récompenses, et ce en fonction de l’application et de sa volonté de faire un compromis. Afin de résoudre le EC-POMDP et de modéliser la politique de l'agent, nous avons appliqué un algorithme existant, le Double Deep-Q-Network, dont le principe général est de mettre à jour la politique de l'agent pendant des épisodes d'entraînement, à partir d’expériences passées stockées dans une mémoire de rejeu. Nous avons montré que l'application de l'algorithme original au problème de CP entraînait des problèmes de mémoire déséquilibrée, susceptibles de détériorer l’entrainement de l'agent. Par conséquent, pour faire face à ces problèmes et permettre un entrainement plus robuste de l'agent, nous avons adapté l'algorithme aux spécificités du EC-POMDP et nous avons introduit des stratégies de gestion de la mémoire et des épisodes. Expérimentalement, nous avons montré que ces contributions amélioraient les performances de l'agent par rapport à l'algorithme d'origine et que nous étions en mesure de former un agent à faire un compromis entre la vitesse et la précision de la classification, individuellement pour chaque séquence. Nous avons également pu former des agents sur des jeux de données publics pour lesquels nous n’avons aucune expertise, ce qui montre que la méthode est applicable à divers domaines. Enfin, nous avons proposé des stratégies pour interpréter, valider ou rejeter les décisions de l'agent. Lors d'expériences, nous avons montré comment ces solutions peuvent aider à mieux comprendre le choix des actions effectuées par l'agent
Early classification (EC) of time series is a recent research topic in the field of sequential data analysis. It consists in assigning a label to some data that is sequentially collected with new data points arriving over time, and the prediction of a label has to be made using as few data points as possible in the sequence. The EC problem is of paramount importance for supporting decision makers in many real-world applications, ranging from process control to fraud detection. It is particularly interesting for applications concerned with the costs induced by the acquisition of data points, or for applications which seek for rapid label prediction in order to take early actions. This is for example the case in the field of health, where it is necessary to provide a medical diagnosis as soon as possible from the sequence of medical observations collected over time. Another example is predictive maintenance with the objective to anticipate the breakdown of a machine from its sensor signals. In this doctoral work, we developed a new approach for this problem, based on the formulation of a sequential decision making problem, that is the EC model has to decide between classifying an incomplete sequence or delaying the prediction to collect additional data points. Specifically, we described this problem as a Partially Observable Markov Decision Process noted EC-POMDP. The approach consists in training an EC agent with Deep Reinforcement Learning (DRL) in an environment characterized by the EC-POMDP. The main motivation for this approach was to offer an end-to-end model for EC which is able to simultaneously learn optimal patterns in the sequences for classification and optimal strategic decisions for the time of prediction. Also, the method allows to set the importance of time against accuracy of the classification in the definition of rewards, according to the application and its willingness to make this compromise. In order to solve the EC-POMDP and model the policy of the EC agent, we applied an existing DRL algorithm, the Double Deep-Q-Network algorithm, whose general principle is to update the policy of the agent during training episodes, using a replay memory of past experiences. We showed that the application of the original algorithm to the EC problem lead to imbalanced memory issues which can weaken the training of the agent. Consequently, to cope with those issues and offer a more robust training of the agent, we adapted the algorithm to the EC-POMDP specificities and we introduced strategies of memory management and episode management. In experiments, we showed that these contributions improved the performance of the agent over the original algorithm, and that we were able to train an EC agent which compromised between speed and accuracy, on each sequence individually. We were also able to train EC agents on public datasets for which we have no expertise, showing that the method is applicable to various domains. Finally, we proposed some strategies to interpret the decisions of the agent, validate or reject them. In experiments, we showed how these solutions can help gain insight in the choice of action made by the agent
3

Lelong, Thibault. "Reconnaissance des documents avec de l'apprentissage profond pour la réalité augmentée." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce projet doctoral se focalise sur les problématiques associées à l'identification d'images et de documents dans les applications de réalité augmentée utilisant des marqueurs, en particulier lors de l'utilisation d'appareils photo. La recherche s'inscrit dans un contexte technologique où l'interaction via la réalité augmentée est essentielle dans plusieurs domaines, y compris l'industrie, qui requièrent des méthodologies d'identification fiables.Dans une première phase, le projet évalue diverses méthodologies d'identification et de traitement d'image au moyen d'une base de données spécialement conçue pour refléter les défis du contexte industriel. Cette recherche permet une analyse approfondie des méthodologies existantes, révélant ainsi leurs potentiels et leurs limites dans divers scénarios d'application.Par la suite, le projet propose un système de détection de documents visant à améliorer les solutions existantes, optimisé pour des environnements tels que les navigateurs web. Ensuite, une méthodologie innovante pour la recherche d'images est introduite, s'appuyant sur une analyse de l'image en sous-parties afin d'accroître la précision de l'identification et d'éviter les confusions d'images. Cette approche permet une identification plus précise et adaptative, notamment en ce qui concerne les variations de la mise en page de l'image cible.Enfin, dans le cadre de travaux en collaboration avec la société ARGO, un moteur de suivi d'image en temps réel a été développé, optimisé pour des appareils à basse puissance et pour les environnements web. Ceci assure le déploiement d'applications web en réalité augmentée et leur fonctionnement sur un large éventail de dispositifs, y compris ceux dotés de capacités de traitement limitées.Il est à noter que les travaux issus de ce projet doctoral ont été appliqués et valorisés concrètement par la société Argo à des fins commerciales, confirmant ainsi la pertinence et la viabilité des méthodologies et solutions développées, et attestant de leur contribution significative au domaine technologique et industriel de la réalité augmentée
This doctoral project focuses on issues related to the identification of images and documents in augmented reality applications using markers, particularly when using cameras. The research is set in a technological context where interaction through augmented reality is essential in several domains, including industry, which require reliable identification methodologies.In an initial phase, the project assesses various identification and image processing methodologies using a database specially designed to reflect the challenges of the industrial context. This research allows an in-depth analysis of existing methodologies, thus revealing their potentials and limitations in various application scenarios.Subsequently, the project proposes a document detection system aimed at enhancing existing solutions, optimized for environments such as web browsers. Then, an innovative image research methodology is introduced, relying on an analysis of the image in sub-parts to increase the accuracy of identification and avoid image confusions. This approach allows for more precise and adaptive identification, particularly with respect to variations in the layout of the target image.Finally, in the context of collaborative work with ARGO company, a real-time image tracking engine was developed, optimized for low-power devices and web environments. This ensures the deployment of augmented reality web applications and their operation on a wide range of devices, including those with limited processing capabilities.It is noteworthy that the works resulting from this doctoral project have been concretely applied and valorized by the Argo company for commercial purposes, thereby confirming the relevance and viability of the developed methodologies and solutions, and attesting to their significant contribution to the technological and industrial field of augmented reality
4

Moreau, Thomas. "Représentations Convolutives Parcimonieuses -- application aux signaux physiologiques et interpétabilité de l'apprentissage profond." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN054/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les représentations convolutives extraient des motifs récurrents qui aident à comprendre la structure locale dans un jeu de signaux. Elles sont adaptées pour l’analyse des signaux physiologiques, qui nécessite des visualisations mettant en avant les informations pertinentes. Ces représentations sont aussi liées aux modèles d’apprentissage profond. Dans ce manuscrit, nous décrivons des avancées algorithmiques et théoriques autour de ces modèles. Nous montrons d’abord que l’Analyse du Spectre Singulier permet de calculer efficacement une représentation convolutive. Cette représentation est dense et nous décrivons une procédure automatisée pour la rendre plus interprétable. Nous proposons ensuite un algorithme asynchrone, pour accélérer le codage parcimonieux convolutif. Notre algorithme présente une accélération super-linéaire. Dans une seconde partie, nous analysons les liens entre représentations et réseaux de neurones. Nous proposons une étape d’apprentissage supplémentaire, appelée post-entraînement, qui permet d’améliorer les performances du réseau entraîné, en s’assurant que la dernière couche soit optimale. Puis nous étudions les mécanismes qui rendent possible l’accélération du codage parcimonieux avec des réseaux de neurones. Nous montrons que cela est lié à une factorisation de la matrice de Gram du dictionnaire. Finalement, nous illustrons l’intérêt de l’utilisation des représentations convolutives pour les signaux physiologiques. L’apprentissage de dictionnaire convolutif est utilisé pour résumer des signaux de marche et le mouvement du regard est soustrait de signaux oculométriques avec l’Analyse du Spectre Singulier
Convolutional representations extract recurrent patterns which lead to the discovery of local structures in a set of signals. They are well suited to analyze physiological signals which requires interpretable representations in order to understand the relevant information. Moreover, these representations can be linked to deep learning models, as a way to bring interpretability intheir internal representations. In this disserta tion, we describe recent advances on both computational and theoretical aspects of these models.First, we show that the Singular Spectrum Analysis can be used to compute convolutional representations. This representation is dense and we describe an automatized procedure to improve its interpretability. Also, we propose an asynchronous algorithm, called DICOD, based on greedy coordinate descent, to solve convolutional sparse coding for long signals. Our algorithm has super-linear acceleration.In a second part, we focus on the link between representations and neural networks. An extra training step for deep learning, called post-training, is introduced to boost the performances of the trained network by making sure the last layer is optimal. Then, we study the mechanisms which allow to accelerate sparse coding algorithms with neural networks. We show that it is linked to afactorization of the Gram matrix of the dictionary.Finally, we illustrate the relevance of convolutional representations for physiological signals. Convolutional dictionary learning is used to summarize human walk signals and Singular Spectrum Analysis is used to remove the gaze movement in young infant’s oculometric recordings
5

Phan, Thi Hai Hong. "Reconnaissance d'actions humaines dans des vidéos avec l'apprentissage automatique." Thesis, Cergy-Pontoise, 2019. http://www.theses.fr/2019CERG1038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces dernières années, la reconnaissance d’action humaine (HAR) a attiré l’attention de la recherche grâce à ses diverses applications telles que les systèmes de surveillance intelligents, l’indexation vidéo, l’analyse des activités humaines, les interactions homme-machine, et ainsi de suite. Les problèmes typiques que les chercheurs envisagent sont la complexité des mouvements humains, les variations spatio-temporelles, l'encombrement, l'occlusion et le changement des conditions d'éclairage. Cette thèse porte sur la reconnaissance automatique des actions humaines en cours dans une vidéo. Nous abordons ce problème de recherche en utilisant à la fois des approches d'apprentissage traditionnel peu profond et d'apprentissage profond.Premièrement, nous avons commencé les travaux de recherche avec des méthodes d’apprentissage traditionnelles peu profondes, fondées sur des caractéristiques créées manuellement, en introduisant un nouveau fonctionnalité appelée descripteur MOMP (Motion of Oriented Magnitudes Patterns). Nous avons ensuite intégré ce descripteur discriminant aux techniques de représentation simples mais puissantes telles que le sac de mots visuels, le vecteur de descripteurs agrégés localement (VLAD) et le vecteur de Fisher pour mieux représenter les actions. En suite l'PCA (Principal Component Analysis) et la sélection des caractéristiques (la dépendance statistique, l'information mutuelle) sont appliquées pour rechercher le meilleur sous-ensemble des caractéristiques afin d'améliorer les performances et de réduire les coûts de calcul. La méthode proposée a permis d'obtenir les résultats d'état de l'art sur plusieurs bases de données communes.Les approches d'apprentissage profond récentes nécessitent des calculs intensifs et une utilisation importante de la mémoire. Ils sont donc difficiles à utiliser et à déployer sur des systèmes aux ressources limitées. Dans la deuxième partie de cette thèse, nous présentons un nouvel algorithme efficace pour compresser les modèles de réseau de neurones convolutionnels afin de réduire à la fois le coût de calcul et l’empreinte mémoire au moment de l’exécution. Nous mesurons la redondance des paramètres en fonction de leurs relations à l'aide des critères basés sur la théorie de l'information, puis nous éliminons les moins importants. La méthode proposée réduit considérablement la taille des modèles de différents réseaux tels qu'AlexNet, ResNet jusqu'à 70% sans perte de performance pour la tâche de classification des images à grande échelle.L'approche traditionnelle avec le descripteur proposé a permis d'obtenir d'excellentes performances pour la reconnaissance de l'action humaine mais seulement sur de petits bases de données. Afin d'améliorer les performances de la reconnaissance sur les bases de données de grande échelle, dans la dernière partie de cette thèse, nous exploitons des techniques d'apprentissage profond pour classifier les actions. Nous introduisons les concepts de l'image MOMP en tant que couche d'entrée de CNN et incorporons l'image MOMP dans des réseaux de neurones profonds. Nous appliquons ensuite notre algorithme de compression réseau pour accélérer et améliorer les performances du système. La méthode proposée réduit la taille du modèle, diminue le sur-apprentissage et augmente ainsi la performance globale de CNN sur les bases de données d'action à grande échelle.Tout au long de la thèse, nous avons montré que nos algorithmes obtenaient de bonnes performances sur bases de données d'action complexes (Weizmann, KTH, UCF Sports, UCF-101 et HMDB51) avec des ressources limitées
In recent years, human action recognition (HAR) has attracted the research attention thanks to its various applications such as intelligent surveillance systems, video indexing, human activities analysis, human-computer interactions and so on. The typical issues that the researchers are envisaging can be listed as the complexity of human motions, the spatial and temporal variations, cluttering, occlusion and change of lighting condition. This thesis focuses on automatic recognizing of the ongoing human actions in a given video. We address this research problem by using both shallow learning and deep learning approaches.First, we began the research work with traditional shallow learning approaches based on hand-scrafted features by introducing a novel feature named Motion of Oriented Magnitudes Patterns (MOMP) descriptor. We then incorporated this discriminative descriptor into simple yet powerful representation techniques such as Bag of Visual Words, Vector of locally aggregated descriptors (VLAD) and Fisher Vector to better represent actions. Also, PCA (Principal Component Analysis) and feature selection (statistical dependency, mutual information) are applied to find out the best subset of features in order to improve the performance and decrease the computational expense. The proposed method obtained the state-of-the-art results on several common benchmarks.Recent deep learning approaches require an intensive computations and large memory usage. They are therefore difficult to be used and deployed on the systems with limited resources. In the second part of this thesis, we present a novel efficient algorithm to compress Convolutional Neural Network models in order to decrease both the computational cost and the run-time memory footprint. We measure the redundancy of parameters based on their relationship using the information theory based criteria, and we then prune the less important ones. The proposed method significantly reduces the model sizes of different networks such as AlexNet, ResNet up to 70% without performance loss on the large-scale image classification task.Traditional approach with the proposed descriptor achieved the great performance for human action recognition but only on small datasets. In order to improve the performance on the large-scale datasets, in the last part of this thesis, we therefore exploit deep learning techniques to classify actions. We introduce the concepts of MOMP Image as an input layer of CNNs as well as incorporate MOMP image into deep neural networks. We then apply our network compression algorithm to accelerate and improve the performance of system. The proposed method reduces the model size, decreases the over-fitting, and thus increases the overall performance of CNN on the large-scale action datasets.Throughout the thesis, we have showed that our algorithms obtain good performance in comparison to the state-of-the-art on challenging action datasets (Weizmann, KTH, UCF Sports, UCF-101 and HMDB51) with low resource required
6

Poirier, Jasmine. "Segmentation de neurones pour imagerie calcique du poisson zèbre : des méthodes classiques à l'apprentissage profond." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/36452.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude expérimentale de la résilience d’un réseau complexe repose sur la capacité à reproduire l’organisation structurelle et fonctionnelle du réseau à l’étude. Ayant choisi le réseau neuronal du poisson-zèbre larvaire comme modèle animal pour sa transparence, on peut utiliser des techniques telles que l’imagerie calcique par feuillet de lumière pour imager son cerveau complet plus de deux fois par seconde à une résolution spatiale cellulaire. De par les bonnes résolutions spatiale et temporelle, les données à segmenter représentent par le fait même un gros volume de données qui ne peuvent être traitées manuellement. On doit donc avoir recours à des techniques numériques pour segmenter les neurones et extraire leur activité.Trois techniques de segmentation ont été comparées, soit le seuil adaptatif (AT), la forêtd’arbres décisionnels (ML), ainsi qu’un réseau de neurones à convolution (CNN) déjà entrainé. Alors que la technique du seuil adaptatif permet l’identification rapide et presque sans erreurdes neurones les plus actifs, elle génère beaucoup plus de faux négatifs que les deux autres méthodes. Au contraire, la méthode de réseaux de neurones à convolution identifie plus deneurones, mais en effectuant plus de faux positifs qui pourront, dans tous les cas, être filtrés parla suite. En utilisant le score F1 comme métrique de comparaison, les performances moyennes de la technique de réseau de neurones (F1= 59,2%) surpassent celles du seuil adaptatif (F1= 25,4%) et de forêt d’arbres de décisions (F1= 48,8%). Bien que les performances semblent faibles comparativement aux performances généralement présentées pour les réseauxde neurones profonds, il s’agit ici d’une performance similaire à celle de la meilleure techniquede segmentation connue à ce jour, soit celle du 3dCNN, présentée dans le cadre du concours neurofinder (F1= 65.9%).
The experimental study of the resilience of a complex network lies on our capacity to reproduceits structural and functional organization. Having chosen the neuronal network of the larvalzebrafish as our animal model for its transparency, we can use techniques such as light-sheet microscopy combined with calcium imaging to image its whole brain more than twice every second, with a cellular spatial resolution. Having both those spatial and temporal resolutions, we have to process and segment a great quantity of data, which can’t be done manually. Wethus have to resort to numerical techniques to segment the neurons and extract their activity. Three segmentation techniques have been compared : adaptive threshold (AT), random deci-sion forests (ML), and a pretrained deep convolutional neural network. While the adaptive threshold technique allow rapid identification and with almost no error of the more active neurons, it generates many more false negatives than the two other methods. On the contrary, the deep convolutional neural network method identify more neurons, but generates more false positives which can be filtered later in the proces. Using the F1 score as our comparison metrics, the neural network (F1= 59,2%) out performs the adaptive threshold (F1= 25,4%) and random decision forests (F1= 48,8%). Even though the performances seem lower compared to results generally shown for deep neural network, we are competitive with the best technique known to this day for neurons segmentation, which is 3dCNN (F1= 65.9%), an algorithm presented in the neurofinder challenge.
7

Droniou, Alain. "Apprentissage de représentations et robotique développementale : quelques apports de l'apprentissage profond pour la robotique autonome." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066056/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin de pouvoir évoluer de manière autonome et sûre dans leur environnement, les robots doivent être capables d'en construire un modèle fiable et pertinent. Pour des tâches variées dans des environnements complexes, il est difficile de prévoir de manière exhaustive les capacités nécessaires au robot. Il est alors intéressant de doter les robots de mécanismes d'apprentissage leur donnant la possibilité de construire eux-mêmes des représentations adaptées à leur environnement. Se posent alors deux questions : quelle doit être la nature des représentations utilisées et par quels mécanismes peuvent-elles être apprises ? Nous proposons pour cela l'utilisation de l'hypothèse des sous-variétés afin de développer des architectures permettant de faire émerger une représentation symbolique de flux sensorimoteurs bruts. Nous montrons que le paradigme de l'apprentissage profond fournit des mécanismes appropriés à l'apprentissage autonome de telles représentations. Nous démontrons que l'exploitation de la nature multimodale des flux sensorimoteurs permet d'en obtenir une représentation symbolique pertinente. Dans un second temps, nous étudions le problème de l'évolution temporelle des stimuli. Nous discutons les défauts de la plupart des approches aujourd'hui utilisées et nous esquissons une approche à partir de laquelle nous approfondissons deux sous-problèmes. Dans une troisième partie, nous proposons des pistes de recherche pour permettre le passage des expériences de laboratoire à des environnements naturels. Nous explorons plus particulièrement la problématique de la curiosité artificielle dans des réseaux de neurones non supervisés
This thesis studies the use of deep neural networks to learn high level representations from raw inputs on robots, based on the "manifold hypothesis"
8

Droniou, Alain. "Apprentissage de représentations et robotique développementale : quelques apports de l'apprentissage profond pour la robotique autonome." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin de pouvoir évoluer de manière autonome et sûre dans leur environnement, les robots doivent être capables d'en construire un modèle fiable et pertinent. Pour des tâches variées dans des environnements complexes, il est difficile de prévoir de manière exhaustive les capacités nécessaires au robot. Il est alors intéressant de doter les robots de mécanismes d'apprentissage leur donnant la possibilité de construire eux-mêmes des représentations adaptées à leur environnement. Se posent alors deux questions : quelle doit être la nature des représentations utilisées et par quels mécanismes peuvent-elles être apprises ? Nous proposons pour cela l'utilisation de l'hypothèse des sous-variétés afin de développer des architectures permettant de faire émerger une représentation symbolique de flux sensorimoteurs bruts. Nous montrons que le paradigme de l'apprentissage profond fournit des mécanismes appropriés à l'apprentissage autonome de telles représentations. Nous démontrons que l'exploitation de la nature multimodale des flux sensorimoteurs permet d'en obtenir une représentation symbolique pertinente. Dans un second temps, nous étudions le problème de l'évolution temporelle des stimuli. Nous discutons les défauts de la plupart des approches aujourd'hui utilisées et nous esquissons une approche à partir de laquelle nous approfondissons deux sous-problèmes. Dans une troisième partie, nous proposons des pistes de recherche pour permettre le passage des expériences de laboratoire à des environnements naturels. Nous explorons plus particulièrement la problématique de la curiosité artificielle dans des réseaux de neurones non supervisés
This thesis studies the use of deep neural networks to learn high level representations from raw inputs on robots, based on the "manifold hypothesis"
9

Harbaoui, Nesrine. "Diagnostic adaptatif à l'environnement de navigation : apport de l'apprentissage profond pour une localisation sûre et précise." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILB041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour un système de transport terrestre autonome, la capacité de déterminer sa position est essentielle afin de permettre à d'autres fonctions, telles que le contrôle ou la planification de trajectoire, d'être exécutées sans danger. Ainsi, la criticité de ces fonctions génère des exigences importantes en termes de sûreté (intégrité), de disponibilité, de justesse et de précision. Pour les véhicules terrestres, la satisfaction de ces exigences est liée à divers paramètres tels que la dynamique du véhicule, les conditions météorologiques, ou encore le contexte de navigation, qui comprend à la fois l'environnement de fonctionnement et le comportement du véhicule ou de l'utilisateur. Toutes ces circonstances peuvent constituer un obstacle à la réception des signaux des systèmes mondial de positionnement par satellite GNSS Global Navigation Satellite System étant donné que l'environnement détermine le type et la qualité des signaux électromagnétiques disponibles pour le positionnement. Bien que de nombreuses techniques de navigation et de positionnement ont été développées, aucune n'est capable de fournir une position fiable et précise dans tous les contextes. Par conséquent, afin de déployer une fonction de localisation capable de fonctionner dans différents types de contextes, basée sur des capteurs à faible coût, principalement le GNSS et le système de navigation inertielle (IMU), il est nécessaire, dès la phase de conception, de développer des stratégies permettant de résoudre à la fois l'antagonisme de certaines exigences, et l'adaptation au changement d'environnement dynamique. Dans ce contexte, cette thése propose une couche de diagnostique qui s'adapte par des méthodes d'apprentissage profond aux changements du contexte et ajuste le compromis entre les exigences fonctionnelles. Cette couche est integrée dans un formalisme de fusion de données tolérant aux fautes par l'intermédiaire d'une divergence informationnelle, α-Rényi Divergence, connue par sa généralisation d'autres divergences notamment la divergence de Kullback-Leibler, Bhattacharyya distance, .... Dans l'optique de détecter et isoler les défauts des capteurs, cette divergence basée sur la génération des résidus, nous offre la solution de sélectionner le résidu adéquat à chaque situation par la fixation de la valeur du paramètre α par l'apport des technologies d'intelligence artificielle afin d'augmenter la détectabilité des défauts.En vue d'augmenter la disponibilité du système tout en gardant un niveau acceptable de sûreté de fonctionnement, un seuil adapatatif au contexte qui ajuste le compromis entre la probabilité de fausse alarme et la probabilité de détection manquée est proposée. Pour tester et valider les approches proposées deux sortes de données ont été fournies; réelles par la plateforme PRETIL du laboratoire CRIStAL et simulées/emulées par le logiciel Stella NGC dans la cadre du projet ANR LOCSP
For an autonomous terrestrial transport system, the ability to determine its position is essential in order to allow other functions, such as control or perception, to be safely controlled or perceived. Thus, the criticality of these functions generates important requirements in terms of safety (integrity), availability, accuracy and precision. For land vehicles, meeting these requirements is related to various parameters such as vehicle dynamics, weather conditions, or the navigation context, which includes both the operational environment and the behavior of the host vehicle or user. All of these circumstances can be an obstacle to the reception of Global Navigation Satellite System (GNSS) signals since the environment determines the type and quality of electromagnetic signals available for positioning.Although many navigation and positioning techniques have been developed, none is capable of providing a reliable and accurate position in all contexts. Therefore, in order to deploy a localization function capable of operating in different contexts, based on low cost sensors, mainly GNSS and Inertial Navigation system (IMU), it is necessary, from the design phase, to develop strategies that solve both the antagonism of certain requirements and the adaptation to changing environment/dynamics. In this context, this thesis proposes a diagnostic layer that adapts by deep learning methods to changes in the context and adjusts the trade-off between functional requirements. This layer is integrated in a fault-tolerant data fusion framework through an informational divergence, the α-Rényi divergence, known by its generalization of other divergences such as the Kullback-Leibler divergence, the Bhattacharyya distance. In order to detect and isolate the divergence faults based on the generation of residuals, we offer the solution of selecting the appropriate residual for each situation by fixing the value of the parameter α using artificial intelligence technologies in order to increase the detectability of the defects. In order to increase the availability of the system while maintaining an acceptable level of operational safety, a context-sensitive threshold that adjusts the trade-off between the probability of false alarm and the probability of missed detection is proposed. To test and validate the proposed approaches, two types of data have been provided; real by the PRETIL platform of the CRIStAL laboratory and simulated by the Stella NGC simulator as a part of the ANR LOCSP project
10

Bourgeais, Victoria. "Interprétation de l'apprentissage profond pour la prédiction de phénotypes à partir de données d'expression de gènes." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'apprentissage profond est une avancée majeure de l'intelligence artificielle de ces dernières années. Ses domaines de prédilection sont principalement l'analyse d'image et le traitement du langage naturel. Un des futurs enjeux majeurs de cette approche est son application à la médecine de précision. Cette nouvelle forme de médecine permettra de personnaliser chaque étape du parcours de soin d'un patient en fonction de ses caractéristiques, notamment moléculaires telles que les données d'expression de gènes qui informent de l'état cellulaire d'un patient. Les modèles d'apprentissage profond sont néanmoins considérés comme des boîtes noires où aucune explication n'est fournie à la prédiction calculée. L'Union Européenne a adopté récemment un texte imposant aux algorithmes d'apprentissage automatique d'être capables d'expliquer leurs décisions aux utilisateurs. Il y a donc un réel besoin de rendre les réseaux de neurones plus interprétables et cela est particulièrement vrai dans le domaine médical pour différentes raisons. D'une part, pour s'assurer que le modèle se base sur des représentations fiables des patients et ne se concentre pas sur des artefacts non pertinents présents dans les données d'apprentissage. Ensuite, cela permettrait de rendre les différents utilisateurs (médecins, patients, chercheurs…) confiants dans leur utilisation de ce modèle. Enfin, un réseau de neurones performant pour la prédiction d'un certain phénotype peut avoir identifié une signature dans les données qui pourrait ouvrir sur de nouvelles pistes de recherche. Dans l'état de l'art actuel, il existe deux approches pour interpréter les réseaux neurones : en créant des modèles qui sont par essence interprétables, ou en ayant recours a posteriori à une méthode tierce dédiée à l'interprétation du réseau de neurones déjà appris. Quelle que soit la méthode choisie, l'explication fournie consiste généralement en l'identification des variables d'entrée et des neurones importants pour la prédiction. Or, dans le cas d'une application sur les données d'expression de gènes, cela n'est pas suffisant, car ces données sont difficilement compréhensibles par l'homme. Nous proposons ainsi de nouvelles méthodes originales d'apprentissage profond, interprétables par construction. L'architecture de ces méthodes est définie à partir d'une ou plusieurs bases de connaissances. Un neurone y représente un objet biologique et les connexions entre les neurones correspondent aux relations entre les objets biologiques. Trois méthodes ont été développées, listées ci-dessous dans l'ordre chronologique. La méthode Deep GONet se base sur un perceptron multicouche contraint par une base de connaissance biologique, la Gene Ontology (GO), par l'intermédiaire d'un terme de régularisation adapté. Les explications des prédictions sont fournies par une méthode d'interprétation a posteriori. La méthode GraphGONet tire parti à la fois d'un perceptron multicouche et d'un réseau de neurones de graphes afin d'exploiter au maximum la richesse sémantique de la connaissance GO. Ce modèle a la capacité de rendre automatiquement des explications. La méthode BioHAN ne se base plus que sur un réseau de neurones de graphes et peut facilement intégrer différentes bases de connaissances et leur sémantique. L'interprétation est facilitée par le recours aux mécanismes d'attention orientant le modèle à se concentrer sur les neurones les plus informatifs. Ces méthodes ont été évaluées sur des tâches de diagnostic à partir de jeux de données d'expression de gènes réelles et ont montré leur compétitivité par rapport aux méthodes d'apprentissage automatique de l'état de l'art. Nos modèles fournissent des explications intelligibles composées des neurones les plus importants et des concepts biologiques qui leur sont associés. Cette caractéristique permet aux experts d'utiliser nos outils dans un cadre médical
Deep learning has been a significant advance in artificial intelligence in recent years. Its main domains of interest are image analysis and natural language processing. One of the major future challenges of this approach is its application to precision medicine. This new form of medicine will make it possible to personalize each stage of a patient's care pathway according to his or her characteristics, in particular molecular characteristics such as gene expression data that inform about the cellular state of a patient. However, deep learning models are considered black boxes as their predictions are not accompanied by an explanation, limiting their use in clinics. The General Data Protection Regulation (GDPR), adopted recently by the European Union, imposes that the machine learning algorithms must be able to explain their decisions to the users. Thus, there is a real need to make neural networks more interpretable, and this is particularly true in the medical field for several reasons. Understanding why a phenotype has been predicted is necessary to ensure that the prediction is based on reliable representations of the patients rather than on irrelevant artifacts present in the training data. Regardless of the model's effectiveness, this will affect any end user's decisions and confidence in the model. Finally, a neural network performing well for the prediction of a certain phenotype may have identified a signature in the data that could open up new research avenues.In the current state of the art, two general approaches exist for interpreting these black-boxes: creating inherently interpretable models or using a third-party method dedicated to the interpretation of the trained neural network. Whatever approach is chosen, the explanation provided generally consists of identifying the important input variables and neurons for the prediction. However, in the context of phenotype prediction from gene expression, these approaches generally do not provide an understandable explanation, as these data are not directly comprehensible by humans. Therefore, we propose novel and original deep learning methods, interpretable by design. The architecture of these methods is defined from one or several knowledge databases. A neuron represents a biological object, and the connections between neurons correspond to the relations between biological objects. Three methods have been developed, listed below in chronological order.Deep GONet is based on a multilayer perceptron constrained by a biological knowledge database, the Gene Ontology (GO), through an adapted regularization term. The explanations of the predictions are provided by a posteriori interpretation method.GraphGONet takes advantage of both a multilayer perceptron and a graph neural network to deal with the semantic richness of GO knowledge. This model has the capacity to generate explanations automatically.BioHAN is only established on a graph neural network and can easily integrate different knowledge databases and their semantics. Interpretation is facilitated by the use of an attention mechanism, enabling the model to focus on the most informative neurons.These methods have been evaluated on diagnostic tasks using real gene expression datasets and have shown competitiveness with state-of-the-art machine learning methods. Our models provide intelligible explanations composed of the most contributive neurons and their associated biological concepts. This feature allows experts to use our tools in a medical setting

Books on the topic "L'apprentissage profond":

1

Michael, Farrell. The effective teacher's guide to moderate, severe, and profound learning difficulties practical strategies. London: Routledge, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Russell, Andreas. Intelligence Artificielle et l'Apprentissage Profond. Independently Published, 2018.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Dark, Sebastian. Deep Learning: Une Introduction Aux Principes Fondamentaux de l'Apprentissage Profond à l'Aide de Python. Independently Published, 2018.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Clark, Sally. Children with Profound/complex Physical and Learning Difficulties. NASEN, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "L'apprentissage profond":

1

ATIEH, Mirna, Omar MOHAMMAD, Ali SABRA, and Nehme RMAYTI. "IdO, apprentissage profond et cybersécurité dans la maison connectée : une étude." In Cybersécurité des maisons intelligentes, 215–56. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9086.ch6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre aborde l'utilisation de l'intelligence artificielle, de l'apprentissage automatique et de l'apprentissage profond dans le contexte des maisons connectées. Plus précisément, il met l'accent sur les avantages de l'utilisation de l'apprentissage profond en termes de sécurité dans la cybersécurité des maisons connectées. Ce chapitre examine également divers cas d'utilisation de l'intelligence artificielle et de l'apprentissage automatique, tels que la reconnaissance des activités humaines dans les maisons connectées, en utilisant des réseaux de neurones et des techniques d'apprentissage automatique. Ces méthodes permettent de détecter et d'analyser les comportements et les actions des résidents, ce qui peut contribuer à améliorer la sécurité et le confort dans les maisons connectées.
2

Alegria, J., J. Marin, S. Carrillo, and Ph Mousty. "Les premiers pas dans l’acquisition de l’orthographe en fonction du caractère profond ou superficiel du système alphabétique : comparaison entre le français et l’espagnol." In L'apprentissage de la lecture, 51–67. Presses universitaires de Rennes, 2003. http://dx.doi.org/10.4000/books.pur.48418.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

MOLINIER, Matthieu, Jukka MIETTINEN, Dino IENCO, Shi QIU, and Zhe ZHU. "Analyse de séries chronologiques d’images satellitaires optiques pour des applications environnementales." In Détection de changements et analyse des séries temporelles d’images 2, 125–74. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9057.ch4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre traite des méthodes d’analyse de séries chronologiques denses en télédétection. Il présente les principales exigences en termes de prétraitements des données, puis un aperçu des quatre principaux axes en détection de changement basée sur l'analyse de séries chronologiques denses : carte de classification, classification de trajectoire, frontières statistiques et approches d'ensemble. Il fournit aussi les détails sur deux des algorithmes les plus largement utilisés dans ce contexte d’analyse. Il aborde également la question de l'apprentissage profond pour la télédétection, en détaillant trois types d'architectures de réseau adaptées à l'analyse de séries chronologiques d'images satellitaires : les réseaux de neurones récurrents, les réseaux de neurones convolutifs et les modèles hybrides combinant ces deux derniers modèles de réseau.

To the bibliography