Academic literature on the topic 'Computationnelle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Computationnelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Computationnelle"

1

Varenne, Franck. "Les simulations computationnelles dans les sciences sociales." Nouvelles perspectives en sciences sociales 5, no. 2 (July 6, 2010): 17–49. http://dx.doi.org/10.7202/044073ar.

Full text
Abstract:
Résumé Les sciences sociales entrent résolument – quoique partiellement – dans l’ère computationnelle. Ce constat n’a pas encore de sens précis si on ne l’accompagne d’une analyse discriminante des fonctions épistémiques de la computation dans les différents recours aux ordinateurs pour la modélisation et la simulation en sciences sociales. De par l’introduction de ces nouvelles manières de formaliser (séduisantes car apparaissant comme plus directes et plus ergonomiques), la double question du réalisme des formalismes et de la valeur de preuve des traitements computationnels se pose à nouveaux frais. Cette expansion tous azimuts des simulations computationnelles conduit certains observateurs enthousiastes à penser que l’on a là un nouveau fondement commun pour toutes les sciences sociales. En clarifiant et en distinguant certains des usages épistémiques de différentes simulations computationnelles dans les sciences sociales, cet article montre cependant qu’il vaut mieux s’en tenir à une position médiane et soutenir que l’apport en est principalement méthodologique.
APA, Harvard, Vancouver, ISO, and other styles
2

Meunier, Jean-Guy. "Enjeux de la modélisation formelle en sémiotique computationnelle." Cygne noir, no. 7 (June 1, 2022): 42–78. http://dx.doi.org/10.7202/1089329ar.

Full text
Abstract:
Une sémiotique computationnelle n’est pas une sémiotique de la computation ni des outils numériques ou de la relation personne-machine. Il s’agit d’une approche qui dans sa modélisation des artefacts sémiotiques construit des modèles computationnels qui en appellent à des modèles conceptuels et formels. Plus précisément, un modèle formel se construit en regard de ce qui a été conceptualisé à propos des artefacts sémiotiques à l’étude et est aussi contraint par les exigences de la modélisation computationnelle. Cet article traite des enjeux de la modélisation formelle pour une sémiotique computationnelle, à savoir : (a) la modélisation formelle dans les pratiques sémiotiques, (b) les définitions d’une modélisation formelle, (c) le rôle déterminant d’un modèle conceptuel sur la modélisation formelle, (d) la contrainte qu’exerce la modélisation computationnelle sur la modélisation formelle et, enfin, (e) les limites qu’impose la modélisation formelle à la recherche sémiotique.
APA, Harvard, Vancouver, ISO, and other styles
3

Le Bouc, Raphaël, and Mathias Pessiglione. "La motivation dans tous ses K." médecine/sciences 34, no. 3 (March 2018): 238–46. http://dx.doi.org/10.1051/medsci/20183403012.

Full text
Abstract:
La motivation peut être définie comme la fonction qui oriente et active le comportement. Nous résumons dans cette revue les acquis récents des neurosciences concernant les bases cérébrales des fonctions motivationnelles. En clinique neuropsychiatrique, les troubles de la motivation sont fréquents et actuellement évalués par des échelles qui ne renseignent pas sur les mécanismes sous-jacents. Nous présentons ici une nouvelle approche, dite computationnelle. Elle consiste à phénotyper le comportement des patients dans des tests de motivation, au moyen de modèles computationnels. Ces phénotypes computationnels caractérisent l’état du patient et pourraient aider au suivi et à la personnalisation du traitement.
APA, Harvard, Vancouver, ISO, and other styles
4

François, Thomas. "La Lisibilité Computationnelle." ITL - International Journal of Applied Linguistics 160 (January 1, 2010): 75–99. http://dx.doi.org/10.1075/itl.160.04fra.

Full text
Abstract:
Résumé Avec la multiplication des documents disponibles, notamment sur le web, la tentation est grande, pour le professeur de français langue maternelle ou seconde, de se passer des manuels balisés et de proposer à ses étudiants un texte à son goût. Cependant, il risque alors de perdre un temps précieux à sélectionner un texte qui convienne au niveau de ses étudiants. Il existe pourtant des outils dont la vocation est de l’assister dans cette tâche : les formules de lisibilité. Peu connues dans la culture francophone, elles jouissent dans la culture anglo-saxonne d’un large succès. Cet article présente une nouvelle synthèse des études en lisibilité du français L1 et L2. Partant du constat que les études récentes sont trop rares, nous présentons le nouveau paradigme dominant dans les études anglo-saxonnes, que nous avons appelé la lisibilité computationnelle. Ces recherches combinent des techniques issues du traitement automatique du langage et de l’apprentissage automatisé afin de prendre en compte l’ensemble des dimensions d’un texte : lexicale, syntaxique, sémantique et organisationnelle. Nous clôturons ce parcours en présentant nos propres travaux dans le domaine et, en particulier, «Dmesure», un prototype de plateforme web pour la lisibilité du FLE.
APA, Harvard, Vancouver, ISO, and other styles
5

Goldbeter, Albert. "Biologie computationnelle des rythmes circadiens." Bulletin de la Classe des sciences 14, no. 1 (2003): 67–82. http://dx.doi.org/10.3406/barb.2003.28343.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lareau, Francis. "Approche computationnelle de l’analyse conceptuelle." Philosophiques 49, no. 2 (2022): 413. http://dx.doi.org/10.7202/1097460ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Aydede, Murat. "Computation and Intentional Psychology." Dialogue 39, no. 2 (2000): 365–80. http://dx.doi.org/10.1017/s0012217300005977.

Full text
Abstract:
RésuméLe rapport entre une approche computationnelle et une approche intentionnelle en psychologie a toujours été une question difficile. La crainte est que si les processus mentaux sont computationnels, alors ces processus, définis sur des symboles, ne soient sensibles qu'aux propreétés non sémantiques des symboles. Stich, on le sait, a fait grand cas de cette tension et défendu une psychologie purement «syntaxique», en traçant une distinction tranchée entre l'individuation sémantique des occurrences de symboles et leur individuation fonctionnelle étroite. Si cette dernière peut être réalisée, affirme-t-il, nous n'avons pas besoin des types sémantiques. Je soutiens, pour ma part, que puisque l'individuation fonctionnelle étroite ne permet pas l'identityé de type entre des occurrences de symboles qui seraient liées à des organismes distincts, une approche sémantique des types reste la seule possible (l'individuation interpersonnelle physique des occurrences étant exclue).
APA, Harvard, Vancouver, ISO, and other styles
8

Le Bouc, Raphaël, and Mathias Pessiglione. "Approche neuro-computationnelle de la procrastination." médecine/sciences 39, no. 11 (November 2023): 819–22. http://dx.doi.org/10.1051/medsci/2023151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Dondero, Maria Giulia. "Les forces dans l’image et les gestualités émotionnelles." SHS Web of Conferences 81 (2020): 03005. http://dx.doi.org/10.1051/shsconf/20208103005.

Full text
Abstract:
Cet article aborde les relations entre le langage visuel et les émotions. Cette exploration se compose de deux volets : le premier est consacré aux forces textualisées dans l’image, le second aux gestualités émotionnelles, à savoir aux pratiques énonciatives du corps qui accompagnent l’interprétation et l’appréciation des images. La première partie discute la contribution de René Thom à la réflexion sur les émotions de la contemplation esthétique face au déploiement des forces dans les tableaux ; tandis que la deuxième partie met en contraste l’analyse manuelle et l’analyse computationnelle au regard des gestes de l’analyste et de l’observateur. L’analyse manuelle est illustrée à travers la pratique d’enseignement de Roland Barthes au Collège de France, l’analyse computationnelle est en revanche prise en examen à partir des expériences de Lev Manovich et des Cultural Analytics.
APA, Harvard, Vancouver, ISO, and other styles
10

Ayache, Nicholas. "De l’imagerie médicale à la médecine computationnelle." La lettre du Collège de France, no. 39 (March 1, 2015): 39. http://dx.doi.org/10.4000/lettre-cdf.1964.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Computationnelle"

1

Debarnot, Valentin. "Microscopie computationnelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30156.

Full text
Abstract:
Les travaux présentés de cette thèse visent à proposer des outils numériques et théoriques pour la résolution de problèmes inverses en imagerie. Nous nous intéressons particulièrement au cas où l'opérateur d'observation (e.g. flou) n'est pas connu. Les résultats principaux de cette thèse s'articulent autour de l'estimation et l'identification de cet opérateur d'observation. Une approche plébiscitée pour estimer un opérateur de dégradation consiste à observer un échantillon contenant des sources ponctuelles (microbilles en microscopie, étoiles en astronomie). Une telle acquisition fournit une mesure de la réponse impulsionnelle de l'opérateur en plusieurs points du champ de vue. Le traitement de cette observation requiert des outils robustes pouvant utiliser rapidement les données rencontrées en pratique. Nous proposons une boîte à outils qui estime un opérateur de dégradation à partir d'une image contenant des sources ponctuelles. L'opérateur estimé à la propriété qu'en tout point du champ de vue, sa réponse impulsionnelle s'exprime comme une combinaison linéaire de fonctions élémentaires. Cela permet d'estimer des opérateurs invariants (convolutions) et variants (développement en convolution-produit) spatialement. Une spécificité importante de cette boîte à outils est son caractère automatique : seul un nombre réduit de paramètres facilement accessibles permettent de couvrir une grande majorité des cas pratiques. La taille de la source ponctuelle (e.g. bille), le fond et le bruit sont également pris en compte dans l'estimation. Cet outil se présente sous la forme d'un module appelé PSF-Estimator pour le logiciel Fiji, et repose sur une implémentation parallélisée en C++. En réalité, les opérateurs modélisant un système optique varient d'une expérience à une autre, ce qui, dans l'idéal, nécessite une calibration du système avant chaque acquisition. Pour pallier à cela, nous proposons de représenter un système optique non pas par un unique opérateur de dégradation, mais par un sous-espace d'opérateurs. Cet ensemble doit permettre de représenter chaque opérateur généré par un microscope. Nous introduisons une méthode d'estimation d'un tel sous-espace à partir d'une collection d'opérateurs de faible rang (comme ceux estimés par la boîte à outils PSF-Estimator). Nous montrons que sous des hypothèses raisonnables, ce sous-espace est de faible dimension et est constitué d'éléments de faible rang. Dans un second temps, nous appliquons ce procédé en microscopie sur de grands champs de vue et avec des opérateurs variant spatialement. Cette mise en œuvre est possible grâce à l'utilisation de méthodes complémentaires pour traiter des images réelles (e.g. le fond, le bruit, la discrétisation de l'observation). La construction d'un sous-espace d'opérateurs n'est qu'une étape dans l'étalonnage de systèmes optiques et la résolution de problèmes inverses. [...]
The contributions of this thesis are numerical and theoretical tools for the resolution of blind inverse problems in imaging. We first focus in the case where the observation operator is unknown (e.g. microscopy, astronomy, photography). A very popular approach consists in estimating this operator from an image containing point sources (microbeads or fluorescent proteins in microscopy, stars in astronomy). Such an observation provides a measure of the impulse response of the degradation operator at several points in the field of view. Processing this observation requires robust tools that can rapidly use the data. We propose a toolbox that estimates a degradation operator from an image containing point sources. The estimated operator has the property that at any location in the field of view, its impulse response is expressed as a linear combination of elementary estimated functions. This makes it possible to estimate spatially invariant (convolution) and variant (product-convolution expansion) operators. An important specificity of this toolbox is its high level of automation: only a small number of easily accessible parameters allows to cover a large majority of practical cases. The size of the point source (e.g. bead), the background and the noise are also taken in consideration in the estimation. This tool, coined PSF-estimator, comes in the form of a module for the Fiji software, and is based on a parallelized implementation in C++. The operators generated by an optical system are usually changing for each experiment, which ideally requires a calibration of the system before each acquisition. To overcome this, we propose to represent an optical system not by a single operator (e.g. convolution blur with a fixed kernel for different experiments), but by subspace of operators. This set allows to represent all the possible states of a microscope. We introduce a method for estimating such a subspace from a collection of low rank operators (such as those estimated by the toolbox PSF-Estimator). We show that under reasonable assumptions, this subspace is low-dimensional and consists of low rank elements. In a second step, we apply this process in microscopy on large fields of view and with spatially varying operators. This implementation is possible thanks to the use of additional methods to process real images (e.g. background, noise, discretization of the observation).The construction of an operator subspace is only one step in the resolution of blind inverse problems. It is then necessary to identify the degradation operator in this set from a single observed image. In this thesis, we provide a mathematical framework to this operator identification problem in the case where the original image is constituted of point sources. Theoretical conditions arise from this work, allowing a better understanding of the conditions under which this problem can be solved. We illustrate how this formal study allows the resolution of a blind deblurring problem on a microscopy example.[...]
APA, Harvard, Vancouver, ISO, and other styles
2

Touret, Alain. "Vers une géométrie computationnelle." Nice, 2000. http://www.theses.fr/2000NICE5491.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Le, Calvez Rozenn. "Approche computationnelle de l'acquisition précoce des phonèmes." Paris 6, 2007. http://www.theses.fr/2007PA066345.

Full text
Abstract:
Pendant leur première année de vie, les bébés acquièrent très rapidement différents aspects de la phonologie de leur langue maternelle, notamment grâce à des mécanismes d'apprentissage statistique. Nous nous intéressons à l'hypothèse selon laquelle les bébés détectent les distributions complémentaires de segments pour apprendre les règles allophoniques (et les phonèmes) de leur langue. Nous avons étudié la faisabilité de cette hypothèse à l'aide d'un algorithme statistique testé sur des corpus de langues artificielles et naturelles. Nous avons trouvé que l'algorithme détecte efficacement les règles allophoniques ainsi que des fausses alertes qui peuvent être éliminées par un filtre phonotactique et des filtres linguistiques qui imposent des contraintes de naturalité sur les règles allophoniques. Au total, notre étude suggère qu'il est possible d'apprendre les règles allophoniques de façon prélexicale à partir de quelques principes computationnels et biais d'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
4

Panel, Nicolas. "Étude computationnelle du domaine PDZ de Tiam1." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX062/document.

Full text
Abstract:
Les interactions protéine-protéine sont souvent contrôlées par de petits domaines protéiques qui régulent les chemins de signalisation au sein des cellules eucaryotes. Les domaines PDZ sont parmi les domaines les plus répandus et les plus étudiés. Ils reconnaissent spécifiquement les 4 à 10 acides aminés C-terminaux de leurs partenaires. Tiam1 est un facteur d'échange de GTP de la protéine Rac1 qui contrôle la migration et la prolifération cellulaire et dont le domaine PDZ lie les protéines Syndecan-1 (Sdc1), Caspr4 et Neurexine. Des petits peptides ou des molécules peptidomimétiques peuvent potentiellement inhiber ou moduler son activité et être utilisés à des fins thérapeutiques. Nous avons appliqué des approches de dessin computationnel de protéine (CPD) et de calcul d'énergie libre par simulations dynamique moléculaire (DM) pour comprendre et modifier sa spécificité. Le CPD utilise un modèle structural et une fonction d'énergie pour explorer l'espace des séquences et des structures et identifier des variants protéiques ou peptidiques stables et fonctionnels. Nous avons utilisé le programme de CPD Proteus, développé au laboratoire, pour redessiner entièrement le domaine PDZ de Tiam1. Les séquences générées sont similaires à celles des domaines PDZ naturels, avec des scores de similarité et de reconnaissance de pli comparables au programme Rosetta, un outil de CPD très utilisé. Des séquences contenant environ 60 positions mutées sur 90, ont été testées par simulations de DM et des mesures biophysiques. Quatre des cinq séquences testées expérimentalement (par nos collaborateurs) montrent un dépliement réversible autour de 50°C. Proteus a également déterminer correctement la spécificité de la liaison de quelques variants protéiques et peptidiques. Pour étudier plus finement la spécificité, nous avons paramétré un modèle d'énergie libre semi-empirique de Poisson-Boltzmann ayant la forme d'une énergie linéaire d'interaction, ou PB/LIE, appliqué à des conformations issues de simulations de DM en solvant explicite de complexes PDZ:peptide. Avec trois paramètres ajustables, le modèle reproduit correctement les affinités expérimentales de 41 variants, avec une erreur moyenne absolue de 0,4~kcal/mol, et donne des prédictions pour 10 nouveaux variants. Le modèle PB/LIE a ensuite comparé à la méthode non-empirique de calcul d'énergie libre par simulations alchimiques, qui n'a pas de paramètre ajustable et qui prédit correctement l'affinité de 12 complexes Tiam1:peptide. Ces outils et les résultats obtenus devraient nous permettre d'identifier des peptides inhibiteurs et auront d'importantes retombées pour l'ingénierie des interactions PDZ:peptide
Small protein domains often direct protein-protein interactions and regulate eukaryotic signalling pathways. PDZ domains are among the most widespread and best-studied. They specifically recognize the 4-10 C-terminal amino acids of target proteins. Tiam1 is a Rac GTP exchange factor that helps control cellmigration and proliferation and whose PDZ domain binds the proteins syndecan-1 (Sdc1), Caspr4, and Neurexin. Short peptides and peptidomimetics can potentially inhibit or modulate its action and act as bioreagents or therapeutics. We used computational protein design (CPD) and molecular dynamics (MD) free energy simulations to understand and engineer its peptide specificity. CPD uses a structural model and an energy function to explore the space of sequences and structures and identify stable and functional protein or peptide variants. We used our in-house Proteus CPD package to completely redesign the Tiam1 PDZ domain. The designed sequences were similar to natural PDZ domains, with similarity and fold recognition scores comarable to the widely-used Rosetta CPD package. Selected sequences, containing around 60 mutated positions out of 90, were tested by microsecond MD simulations and biophysical experiments. Four of five sequences tested experimentally (by our collaborators) displayed reversible unfolding around 50°C. Proteus also accurately scored the binding specificity of several protein and peptide variants. As a more refined model for specificity, we parameterized a semi-empirical free energy model of the Poisson-Boltzmann Linear Interaction Energy or PB/LIE form, which scores conformations extracted from explicit solvent MD simulations of PDZ:peptide complexes. With three adjustable parameters, the model accurately reproduced the experimental binding affinities of 41 variants, with a mean unsigned error of just 0.4 kcal/mol, andgave predictions for 10 new variants. The PB/LIE model was tested further by comparing to non-empirical, alchemical, MD free energy simulations, which have no adjustable parameters and were found to give chemical accuracy for 12 Tiam1:peptide complexes. The tools and insights obtained should help discover new tight binding peptides or peptidomimetics and have broad implications for engineering PDZ:peptide interactions
APA, Harvard, Vancouver, ISO, and other styles
5

Pauwels, Edouard. "Applications de l'apprentissage statistique à la biologie computationnelle." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00958432.

Full text
Abstract:
Les biotechnologies sont arrivées au point ou la quantité d'information disponible permet de penser les objets biologiques comme des systèmes complexes. Dans ce contexte, les phénomènes qui émergent de ces systèmes sont intimement liés aux spécificités de leur organisation. Cela pose des problèmes computationnels et statistiques qui sont précisément l'objet d'étude de la communauté liée à l'apprentissage statistique. Cette thèse traite d'applications de méthodes d'apprentissage pour l'étude de phénomène biologique dans une perspective de système complexe. Ces méthodes sont appliquées dans le cadre de l'analyse d'interactions protéine-ligand et d'effets secondaires, du phenotypage de populations de cellules et du plan d'expérience pour des systèmes dynamiques non linéaires partiellement observés.D'importantes quantités de données sont désormais disponibles concernant les molécules mises sur le marché, tels que les profils d'interactions protéiques et d'effets secondaires. Cela pose le problème d'intégrer ces données et de trouver une forme de structure sous tendant ces observations à grandes échelles. Nous appliquons des méthodes récentes d'apprentissage non supervisé à l'analyse d'importants jeux de données sur des médicaments. Des exemples illustrent la pertinence de l'information extraite qui est ensuite validée dans un contexte de prédiction.Les variations de réponses à un traitement entre différents individus posent le problème de définir l'effet d'un stimulus à l'échelle d'une population d'individus. Par exemple, dans le contexte de la microscopie à haut débit, une population de cellules est exposée à différents stimuli. Les variations d'une cellule à l'autre rendent la comparaison de différents traitement non triviale. Un modèle génératif est proposé pour attaquer ce problème et ses propriétés sont étudiées sur la base de données expérimentales.A l'échelle moléculaire, des comportements complexes émergent de cascades d'interactions non linéaires entre différentes espèces moléculaires. Ces non linéarités engendrent des problèmes d'identifiabilité du système. Elles peuvent cependant être contournées par des plans expérimentaux spécifiques, un des champs de recherche de la biologie des systèmes. Une stratégie Bayésienne itérative de plan expérimental est proposée est des résultats numériques basés sur des simulations in silico d'un réseau biologique sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
6

Jacob, Laurent. "A priori structurés pour l'apprentissage supervisé en biologie computationnelle." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005743.

Full text
Abstract:
Les méthodes d'apprentissage supervisé sont utilisées pour construire des fonctions prédisant efficacement le comportement de nouvelles entités à partir de données observées. Elles sont de ce fait très utiles en biologie computationnelle, où elles permettent d'exploiter la quantité grandissante de données expérimentales disponible. Dans certains cas cependant, la quantité de données disponible n'est pas suffisante par rapport à la complexité du problème d'apprentissage. Heureusement ce type de problème mal posé n'est pas nouveau en statistiques. Une approche classique est d'utiliser des méthodes de régularisation ou de manière équivalente d'introduire un a priori sur la forme que la fonction devrait avoir. Dans cette thèse, nous proposons de nouvelles fonctions de régularisation basées sur la connaissance biologique de certains problèmes. Dans le contexte de la conception de vaccins ou de médicaments, nous montrons comment l'utilisation du fait que les cibles similaires lient des ligands similaires permet d'améliorer sensiblement les prédictions pour les cibles ayant peu ou n'ayant pas de ligands connus. Nous proposons également une fonction prenant en compte le fait que seuls certains groupes inconnus de cibles partagent leur comportement de liaison. Finalement, dans le cadre de la prédiction de métastase de tumeurs à partir de données d'expression, nous construisons une fonction de régularisation favorisant les estimateurs parcimonieux dont le support est une union de groupes de gènes potentiellement chevauchants définis a priori, ou un ensemble de gènes ayant tendance à être connectés sur un graphe défini a priori.
APA, Harvard, Vancouver, ISO, and other styles
7

Zheng, Léon. "Frugalité en données et efficacité computationnelle dans l'apprentissage profond." Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0009.

Full text
Abstract:
Cette thèse s’intéresse à deux enjeux de frugalité et d’efficacité dans l’apprentissage profond moderne : frugalité en données et efficacité en ressources de calcul. Premièrement, nous étudions l’apprentissage auto-supervisé, une approche prometteuse en vision par ordinateur qui ne nécessite pas d’annotations des données pour l'apprentissage de représentations. En particulier, nous proposons d’unifier plusieurs fonctions objectives auto-supervisées dans un cadre de noyaux invariants par rotation, ce qui ouvre des perspectives en termes de réduction de coût de calcul de ces fonctions objectives. Deuxièmement, étant donné que l’opération prédominante des réseaux de neurones profonds est la multiplication matricielle, nous nous penchons sur la construction d’algorithmes rapides qui permettent d’effectuer la multiplication matrice-vecteur avec une complexité presque linéaire. Plus spécifiquement, nous étudions le problème de factorisation creuse de matrices sous contrainte de parcimonie "butterfly", une structure commune à plusieurs transformées rapides comme la transformée de Fourier discrète. La thèse établit des garanties théoriques sur l’algorithme de factorisation butterfly, et étudie le potentiel de la parcimonie butterfly pour la réduction du coût computationnel des réseaux de neurones lors de leur phase d’apprentissage ou d’inférence. Nous explorons notamment l’efficacité des implémentations GPU de la multiplication matricielle avec parcimonie butterfly, dans le but d’accélérer réellement des réseaux de neurones parcimonieux
This thesis focuses on two challenges of frugality and efficiency in modern deep learning: data frugality and computational resource efficiency. First, we study self-supervised learning, a promising approach in computer vision that does not require data annotations for learning representations. In particular, we propose a unification of several self-supervised objective functions under a framework based on rotation-invariant kernels, which opens up prospects to reduce the computational cost of these objective functions. Second, given that matrix multiplication is the predominant operation in deep neural networks, we focus on the construction of fast algorithms that allow matrix-vector multiplication with nearly linear complexity. More specifically, we examine the problem of sparse matrix factorization under the constraint of butterfly sparsity, a structure common to several fast transforms like the discrete Fourier transform. The thesis establishes new theoretical guarantees for butterfly factorization algorithms, and explores the potential of butterfly sparsity to reduce the computational costs of neural networks during their training or inference phase. In particular, we explore the efficiency of GPU implementations for butterfly sparse matrix multiplication, with the goal of truly accelerating sparse neural networks
APA, Harvard, Vancouver, ISO, and other styles
8

Sander, David. "Approche computationnelle des mécanismes émotionnels : test de l'hypothèse de polarité." Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/sander_d.

Full text
Abstract:
Qu'est-ce qui distingue le traitement d'un événement neutre de celui d'un événement émotionnel ? L'évaluation d'un événement émotionnel positif est-elle de nature différente de celle d'un événement négatif ? L'évaluation de la valeur émotionnelle d'un stimulus peut-elle s'effectuer de façon inconsciente ? Ces questions sont au coeur de la problématique traitée. La logique de la thèse était, tout d'abord, de se fonder sur l'émergence d'une "neuroscience cognitive des émotions" pour identifier les contraintes fonctionnelles, computationnelles et neuronales qui nous ont permis de proposer un modèle des mécanismes émotionnels. Deux hypothèses générées par le modèle ont ensuite été opérationnalisées. La première, l'hypothèse de polarité, propose que certains mécanismes émotionnels soient différentiellement sensibles aux événements positifs et négatifs. La seconde, l'hypothèse d'automaticité, propose que l'évaluation des stimuli émotionnels s'effectue dans un mode automatique. Ces hypothèses ontété testées en utilisant des paradigmes dans lesquels les participants évaluaient de façon explicite ou implicite des stimuli dont la polarité (positive vs négative) variait. Cinq expériences ont été conduites : une étude utilisant le paradigme de présentation en champ visuel divisé chez des participants sains, une étude d'imagerie par résonance magnétique fonctionnelle événementielle chez des participants sains, une étude impliquant un patient présentant une hyperfusion amygdalienne, une étude impliquant des patients ayant une lésion cérébrale focale identifiée, et une étude impliquant des patients schizophrènes. Les résultats expérimentaux sont en faveur (1) de la validation de l'hypothèse de pol arité à la fois lorsque l'évaluation est explicite et lorsqu'elle est implicite, (2) du fait que l'ensemble des mécanismes impliq́ué dans l'évaluation explicite n'est pas identique à celui impliqué dans l'évaluation implicite, (3) de la validation de l'hypothèse d'automaticité.
APA, Harvard, Vancouver, ISO, and other styles
9

Sander, David Koenig Olivier. "Approche computationnelle des mécanismes émotionnels test de l'hypothèse de polarité /." Lyon : Université Lumière Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/sander_d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Bérenger, François. "Nouveaux logiciels pour la biologie structurale computationnelle et la chémoinformatique." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1047/document.

Full text
Abstract:
Ma thèse introduit cinq logiciels de trois différents domaines: le calcul parallèle et distribué, la biologie structurale computationnelle et la chémoinformatique. Le logiciel pour le calcul parallèle et distribué s'appelle PAR. PAR permet d'exécuter des expériences indépendantes de manière parallèle et distribuée. Les logiciels pour la biologie structurale computationnelle sont Durandal, EleKit et Fragger. Durandal exploite la propagation de contraintes géométriques afin d'accélérer l'algorithme de partitionnement exact pour des modèles de protéines. EleKit permet de mesurer la similarité électrostatique entre une petite molécule et la protéine qu'elle est conçue pour remplacer sur une interface protéine-protéine. Fragger est un cueilleur de fragments de protéines permettant de sélectionner des fragments dans la banque de protéines mondiale. Enfin, le logiciel de chémoinformatique est ACPC. ACPC permet l'encodage fin, d'une manière rotation-translation invariante, d'une molécule dans un ou une combinaison des trois espaces chimiques (électrostatique, stérique ou hydrophobe). ACPC est un outil de criblage virtuel qui supporte les requêtes consensus, l'annotation de la molécule requête et les processeurs multi-coeurs
This thesis introduces five software useful in three different areas : parallel and distributed computing, computational structural biology and chemoinformatics. The software from the parallel and distributed area is PAR. PAR allows to execute independent experiments in a parallel and distributed way. The software for computational structural biology are Durandal, EleKit and Fragger. Durandal exploits the propagation of geometric constraints to accelerate the exact clustering algorithm for protein models. EleKit allows to measure the electrostatic similarity between a chemical molecule and the protein it is designed to replace at a protein-protein interface. Fragger is a fragment picker able to select protein fragments in the whole protein data-bank. Finally, the chemoinformatics software is ACPC. ACPC encodes in a rotation-translation invariant way a chemical molecule in any or a combination of three chemical spaces (electrostatic, steric or hydrophobic). ACPC is a ligand-based virtual screening tool supporting consensus queries, query molecule annotation and multi-core computers
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Computationnelle"

1

Venev, Yvan Dimitrov. Dictionnaire russe-français-anglais, linguistique mathématique et computationnelle. Paris: Institut international de philosophie et terminologie "Peter Deunov", 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Fodor, Jerry A. L' esprit, ça ne marche pas comme ça: Portée et limites de la psychologie computationnelle. Paris: Odile Jacob, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Racicot, François-Éric. Finance computationnelle et gestion des risques: Ingénierie financière avec applications Excel (Visual Basic) et Matlab. Québec: Presses de l'Université du Québec, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Salanskis, J. M. Le monde du computationnel. [Paris]: Les Belles lettres, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Workshop on Controlled Natural Language (2009 Marettimo Island, Italy). Controlled natural language: Workshop on Controlled Natural Language, CNL 2009, Marettimo Island, Italy, June 8-10, 2009 : revised papers. Berlin: Springer-Verlag, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Suzanne, Tyc-Dumont, ed. Le neurone computationnel: Histoire d'un siècle de recherches. Paris: CNRS, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

E, Goodman Jacob, and O'Rourke Joseph, eds. Handbook of discrete and computational geometry. 2nd ed. Boca Raton: Chapman & Hall/CRC, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

McClelland, James L. Explorations in parallel distributed processing: A handbook of models, programs, and exercises. Cambridge, Mass: MIT Press, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Venev, Yvan. Elsevier Dictionary of Mathematical & Computational Linguistics inEnglish/ French & Russian Dictionaire Linguistique Mathematique et Computationnelle. French & European Pubns, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Le monde du computationnel. [Paris]: Les Belles lettres, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Computationnelle"

1

Manes Gallo, M. Caterina. "Créativité langagière et raison computationnelle." In XXVe CILPR Congrès International de Linguistique et de Philologie Romanes, edited by Maria Iliescu, Heidi Siller-Runggaldier, and Paul Danler, 5–485. Berlin, New York: De Gruyter, 2010. http://dx.doi.org/10.1515/9783110231922.5-485.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Corradini, Maria Sofia. "Formalisation des variantes à des fins computationnelles: vérification de l’hypothèse expérimentale sur un texte occitan." In Études de langue et de littérature médiévales offertes à Peter T. Ricketts à l’occasion de son 70ème anniversaire, 355–68. Turnhout: Brepols Publishers, 2010. http://dx.doi.org/10.1484/m.stmh-eb.3.2545.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

DUCROS, Nicolas. "Une introduction à l’imagerie computationnelle monodétecteur." In Imageries optiques non conventionnelles pour la biologie, 247–74. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9132.ch8.

Full text
Abstract:
L’imagerie computationnelle monodétecteur permet d’acquérir une image au moyen d’un détecteur ponctuel, ce qui en fait une méthode de choix pour l’imagerie spectrale dans le visible ou l’infrarouge. Ce chapitre donne un aperçu de l’évolution de cette approche au cours des dernières décennies, notamment en ce qui concerne les algorithmes de reconstruction.
APA, Harvard, Vancouver, ISO, and other styles
4

Corteel, Mathieu. "L’émergence de l’épistémè computationnelle en médecine." In L’épistémologie historique, 227–42. Éditions de la Sorbonne, 2019. http://dx.doi.org/10.4000/books.psorbonne.39341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Collins, Anne, and Mehdi Khamassi. "Chapitre 9. Initiation à la modélisation computationnelle." In Neurosciences cognitives, 255–81. De Boeck Supérieur, 2021. http://dx.doi.org/10.3917/dbu.khama.2021.01.0255.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

"Front Matter." In Finance computationnelle et gestion des risques, I—VI. Presses de l'Université du Québec, 2006. http://dx.doi.org/10.2307/j.ctv18ph6c6.1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

"LA SIMULATION DE MONTE CARLO." In Finance computationnelle et gestion des risques, 219–46. Presses de l'Université du Québec, 2006. http://dx.doi.org/10.2307/j.ctv18ph6c6.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

"LES MÉTHODES DES DIFFÉRENCES FINIES." In Finance computationnelle et gestion des risques, 247–88. Presses de l'Université du Québec, 2006. http://dx.doi.org/10.2307/j.ctv18ph6c6.11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

"LA PROGRAMMATION DYNAMIQUE ET L’ÉQUATION DE BELLMAN." In Finance computationnelle et gestion des risques, 289–300. Presses de l'Université du Québec, 2006. http://dx.doi.org/10.2307/j.ctv18ph6c6.12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"LES CONTRATS À TERME." In Finance computationnelle et gestion des risques, 303–58. Presses de l'Université du Québec, 2006. http://dx.doi.org/10.2307/j.ctv18ph6c6.13.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Computationnelle"

1

Lefort, Claire, Mathieu Chalvidal, Alexis Parenté, Véronique BLANQUET, Henri Massias, Laetitia MAGNOL, and Emilie Chouzenoux. "Imagerie 3D par microscopie multiphotonique appliquée aux sciences du vivant : la chaine instrumentale et computationnelle FAMOUS." In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.221.

Full text
Abstract:
Nous présentons une nouvelle stratégie instrumentale et computationnelle appelée FAMOUS (pour fast algorithm for three-dimensional (3D) multiphoton microscopy of biomedical structures) basée sur une approche de microscopie multiphotonique assistée par calcul. Le but est l’amélioration visuelle des images d'échantillons biologiques épais offrant ainsi un nouveau point de vue sur les structures biologiques. L'approche de post-traitement repose sur un algorithme de restauration d'image régularisé, alimenté par une estimation 3D précise de la fonction d'étalement du point (Point Spread Function en anglais, PSF) de l'instrument sur toute la profondeur des structures. Cette dernière étape revient à mesurer, grâce à un algorithme d'ajustement de modèle avancé, les distorsions variant en profondeur de l'image résultant de la combinaison entre la contribution instrumentale et les hétérogénéités du milieu. Les performances du pipeline FAMOUS sont évaluées pour un milieu hétérogène constitué d’un muscle entier de souris. La génération de seconde harmonique (SHG), émise par l'assemblage des chaines de myosine du muscle est enregistrée. Les artefacts optiques issus de la chaîne d'acquisition incluant des hétérogénéités dans les 3 dimensions sont estimés avec les spécificités propres à l’échantillon puis retirées numériquement. Des images brutes et restaurées sur 5 µm de l’ultrastructure fine du muscle illustrent la robustesse du pipeline FAMOUS.
APA, Harvard, Vancouver, ISO, and other styles
2

FERRANDON, Erwan, Mathis COURANT, Camélia POPESCU, Yann LAUNAY, Sophie ALAIN, and Claire LEFORT. "Un pipeline instrumental et computationnel pour visualiser des particules virales de SARS-CoV-2 en suspension." In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.684.

Full text
Abstract:
La compréhension des modes d’actions biologiques des virus dans une cellule hôte est un sujet complexe pour lequel nous pensons que les solutions optiques pourraient apporter des éléments de réponse nouveaux. Cependant, les dimensions des particules virales sont environ 3 fois plus petites que la résolution d’un microscope optique. Nous proposons de tester une nouvelle stratégie instrumentale et computationnelle, reposant sur la microscopie multiphotonique, pour visualiser des objets dont les dimensions sont de l’ordre de quelques centaines de nanomètres. Cette stratégie repose sur la prise en compte de la réponse impulsionnelle de l’instrument (PSF pour Point Spread Function) in situ, modélisée mathématiquement. A partir de ce modèle qui prend en compte les distorsions optiques locales, un post-traitement numérique des images est appliqué en vue d’optimiser la qualité visuelle des images. Nous faisons des tests sur deux populations de virus : les Cytomégalovirus (CMV) et le SARS-CoV-2.
APA, Harvard, Vancouver, ISO, and other styles
3

Saint-Aimé, Sébastien, Brigitte Le Pévédic, and Dominique Duhaut. "Évaluation du modèle computationnel d'émotions iGrace." In the 21st International Conference. New York, New York, USA: ACM Press, 2009. http://dx.doi.org/10.1145/1629826.1629857.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Biggio, Federico. "Espaces et temps de la transition numérique. Une perspective éco-sémiotique." In Actes du congrès de l’Association Française de Sémiotique. Limoges: Université de Limoges, 2024. http://dx.doi.org/10.25965/as.8600.

Full text
Abstract:
Depuis les premières années de l’Internet, la conceptualisation du Web en tant que « écologie » est devenue une habitude interprétative aussi suggestive qu’efficace. Héritant cette analogie et d’autres métaphores, cet article tentera de schématiser les transitions numériques en termes de déplacements topologiques et d’évolutions diachroniques au sein de l’espace du Web. De même, il rendra compte de leur valeur et des investissements passionnels de la part des formes de vie (les utilisateurs). L’objectif est d’esquisser la contribution possible des sciences de la signification dans le processus de réception et d’interprétation de l’écologie des médias computationnels et interconnectés contemporains.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Computationnelle"

1

Gruson-Daniel, Célya, and Maya Anderson-González. Étude exploratoire sur la « recherche sur la recherche » : acteurs et approches. Ministère de l'enseignement supérieur et de la recherche, November 2021. http://dx.doi.org/10.52949/24.

Full text
Abstract:
• Introduction Dans le cadre du deuxième Plan National de la Science Ouverte, le Comité pour la science ouverte a souhaité mener une étude pour la préfiguration d’un Lab de la science ouverte (LabSO) afin de mieux comprendre le périmètre de la recherche sur la recherche (research on research) dans un contexte international. • Objectifs de l’étude : L’étude répond ainsi à trois objectifs : 1. repérer des grands courants de recherche sur la recherche (RoR) dans le paysage plus général de la recherche universitaire en Europe et outre-atlantique, en reconnaître les principaux acteurs institutionnels et différencier les approches mobilisées par les uns et les autres ; 2. proposer une méthodologie d’analyse dans une démarche de science ouverte (méthodes mixtes et cartographie numérique) pour faciliter l’appropriation de son contenu ; 3. émettre des recommandations pour faciliter le positionnement du LabSO et s’inspirer d’initiatives existantes. • Méthodologie Une série de treize entretiens et une collecte de données d’une sélection thématique de sites web ont permis de dresser un paysage d’acteurs et d’approches impliqués dans des recherches sur la recherche. Ce dernier s’est nourri d’une démarche de cartographie numérique pour repérer et visualiser les liens existants entre différentes communautés, mouvements, réseaux et initiatives (financeurs, projets, centres de recherche, fournisseurs de données, éditeurs, etc.). • Résultats Le rapport présente différents courants de « recherche sur la recherche » issus des traditions théoriques et méthodologiques de la sociologie, de l’économie, des sciences politiques, de la philosophie, des sciences de l’information et des mesures (biblio/scientométrie). Des courants plus récents sont aussi décrits. Ils s’inscrivent dans un contexte de politiques publiques favorables à la science ouverte et ont émergé dans le champ des sciences sociales computationnelles, des Big Data ou encore des domaines biomédicaux. Si certaines de ces approches s’appuient sur des courants académiques (STS, sciences des mesures) établis depuis de nombreuses décennies, d’autres comme ceux de la « métascience » ou de la « science de la science », se sont structurées plus récemment avec une visée prescriptive et de changement fondé sur des preuves (evidence-based) se basant sur un engagement normatif pour une science plus ouverte, inclusive et diverse. Bien loin d’un paysage statique, l’étude fait ressortir des recherches en mouvement, des débats tout autant que des mises en garde afin que certains courants « ne réinventent pas la roue » en faisant fit d’une longue tradition académique de l’étude des sciences et de la production scientifiques. De nouvelles alliances entre centres de recherche et laboratoires, institutions subventionnaires, décideurs politiques et fournisseurs de données ont été repérées. Elles participent à une dynamique actuelle d’équipement des politiques publiques par des outils d’évaluation et des protocoles de recherche pour guider les actions menées, on parle d’évidence-based policies. Un des exemples les plus récents étant laa seconde feuille de route du RoRI1 poussant notamment à la formation d’un réseau international d’instituts de recherche sur la recherche, fondé sur le partage et la mutualisation de données, de méthodes et d’outils. Outre la présentation de ces différents acteurs et courants, le rapport pointe le rôle joué par les infrastructures et les fournisseurs de données scientifiques (publications, données, métadonnées, citations, etc.) dans la structuration de ce paysage et les équilibres à trouver. • Recommandations 1. Accompagner la construction d’indicateurs et de métriques par le biais d’un regard critique et de discussions collectives pour mesurer leurs impacts sur les comportements des professionnels de la recherche (mésusages, gaming). 2. Porter attention aux étapes de diffusion des résultats scientifiques issus des « recherches sur la recherche » pour les adapter aux différents publics ciblés (chercheurs, responsables des politiques publiques de recherche, journalistes, etc.). 3. Articuler les travaux de « recherche sur la recherche » avec une démarche de science ouverte en questionnant notamment les choix faits concernant les fournisseurs de données, les infrastructures et outils d’évaluation, de découvrabilité et d’analyse de la production scientifique (gouvernance, utilisation des données, etc.). 4. Soutenir les approches thématiques et transversales plutôt que disciplinaire de manière collaborative entre les différents membres du Lab de la science ouverte et aider le dialogue entre les différentes approches et mouvements (STS, research on research, science of science, scientométrie, etc.)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography