Siga este link para ver outros tipos de publicações sobre o tema: Prédiction des processus.

Artigos de revistas sobre o tema "Prédiction des processus"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores artigos de revistas para estudos sobre o assunto "Prédiction des processus".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja os artigos de revistas das mais diversas áreas científicas e compile uma bibliografia correta.

1

Gabriel, Patrick. "Contingence de la décision: influence de la situation sur le recueil et la prédiction du choix". Recherche et Applications en Marketing (French Edition) 18, n.º 2 (junho de 2003): 31–46. http://dx.doi.org/10.1177/076737010301800202.

Texto completo da fonte
Resumo:
La prédiction du comportement pose problème: les séries de choix font référence à une certaine contingence, liée notamment à des facteurs contextuels et situationnels. Une méthode expérimentale de recueil de données de choix tenant compte de cette contingence est alors proposée; à partir de ces données, l'intérêt théorique, managérial et méthodologique de la prise en compte de cette contingence dans l'étude et la prédiction des comportements de choix sont analysés. En particulier, la prise en compte de la situation aboutit à des résultats prédictifs différents et, semble-t-il, à un processus plus complexe qu'un choix hors situation.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Bosq, Denis. "Processus linéaires vectoriels et prédiction". Comptes Rendus Mathematique 337, n.º 2 (julho de 2003): 115–18. http://dx.doi.org/10.1016/s1631-073x(03)00274-7.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Lazaro, Christophe. "Le pouvoir « divinatoire » des algorithmes". Anthropologie et Sociétés 42, n.º 2-3 (5 de outubro de 2018): 127–50. http://dx.doi.org/10.7202/1052640ar.

Texto completo da fonte
Resumo:
À travers le développement spectaculaire de systèmes algorithmiques capables de collecter, d’analyser, de traiter des quantités massives de données, l’ère desBig datasemble avoir conféré à l’homme un nouvel outil de prédiction lui permettant d’optimiser les processus décisionnels, d’anticiper les risques et de gouverner les conduites. Les applications, développées notamment dans le domaine de la sécurité, du marketing ou du divertissement, intégrant des algorithmes auto-apprenants, rendent désormais possibles la prédiction et surtout la préemption du futur. Dans cette contribution, nous souhaitons interroger le pouvoir prédictif des algorithmes, à la lumière des pratiques divinatoires de l’Antiquité gréco-latine. À cette fin, nous déployons un double questionnement, à la fois épistémologique et ontologique, en nous inspirant du traité de Cicéron sur la divination : que sont les algorithmes, et quelle est la singularité de leur logique corrélative ? Que nous font voir les algorithmes et quelles sont les nouvelles modalités de production du savoir qu’ils impliquent ?
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Carin, Yann, e Mickael Terrien. "Mort subite ?" La Revue des Sciences de Gestion N° 307-308, n.º 1 (20 de agosto de 2021): 15–24. http://dx.doi.org/10.3917/rsg.307.0015.

Texto completo da fonte
Resumo:
Les défaillances sont un phénomène courant dans le football (81 en France sur la seule période 1975 à 2018). Ce secteur d’activité est pourtant peu appréhendé par le monde académique, qui ne l’investit le plus souvent qu’à des fins de prédictions. Bien que rigoureux, ce type d’approche présente un risque de deuxième espèce (défaillance prédite non réalisée) bien trop important pour être pertinent pour les régulateurs. Ce papier tente de remédier à cette limite en croisant approches quantitatives et qualitatives pour éclairer les trajectoires d’entrée en défaillance de ces organisations. Les résultats permettent de mieux appréhender l’existence des faux positifs inhérente aux modèles de prédiction. Ils illustrent également le poids des spécificités du secteur d’activité dans ce processus.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Desseilles, Martin. "Prédire le suicide ou prédire l’imprévisible dans un monde incertain. Modèle du suicide selon l’apprentissage par renforcement". Dossier : Le suicide 37, n.º 2 (18 de março de 2013): 107–27. http://dx.doi.org/10.7202/1014947ar.

Texto completo da fonte
Resumo:
De manière générale, il apparaît que l’acte suicidaire est hautement imprévisible par les moyens scientifiques actuellement à notre disposition. Dans cet article, nous formulons l’hypothèse que la prédiction du suicide est compliquée parce qu’elle résulte de la prédiction d’un choix, lequel est lui-même imprévisible. Nous proposons un modèle du suicide selon l’apprentissage par renforcement. Dans ce modèle, nous intégrons d’une part les quatre principaux modulateurs ascendants (acétylcholine, noradrénaline, sérotonine, dopamine) avec leurs régions de projections et d’afférences respectives, et d’autre part, différentes observations d’imagerie cérébrales trouvées à ce jour dans le processus suicidaire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Cairns, Robert D. "La recherche de rentes en situation d’incertitude avec ou sans opposition". Articles 68, n.º 3 (10 de março de 2009): 477–98. http://dx.doi.org/10.7202/602077ar.

Texto completo da fonte
Resumo:
RÉSUMÉ Les caractéristiques d’équilibre d’un modèle stochastique de la recherche de rentes sont rapportées et discutées. La proposition que les coûts sociaux de la recherche de rentes par des individus riscophobes sont inférieurs au total des rentes est d’abord confirmée. Le modèle de recherche de rentes avec rentes endogènes est ensuite élargi pour y inclure une opposition, créée par ceux que le processus désavantage. Diverses prédictions trouvées dans cette littérature sont qualifiées, incluant (1) la relation entre le total des efforts, le total des rentes et le total des pertes sociales, (2) l’impact d’une augmentation du total des rentes possibles sur l’effort de l’opposition, et (3) l’apparence de « désintérêt de la déréglementation ». Un aspect important de cette analyse est l’ambiguïté de plusieurs effets. Cette ambiguïté fournit une explication possible au fait que la théorie de la recherche de rentes n’a, jusqu’à date, fourni aucune prédiction définitive au sujet des caractéristiques de l’équilibre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Alpay, Daniel, e Dan Volok. "Processus stationnaires sur l'arbre dyadique : prédiction et extension de covariance". Comptes Rendus Mathematique 342, n.º 4 (fevereiro de 2006): 237–41. http://dx.doi.org/10.1016/j.crma.2005.12.018.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Moorman, Christine. "Les processus organisationnels d'information de marché: les antécédents culturels et les résultats d'un produit nouveau". Recherche et Applications en Marketing (French Edition) 11, n.º 3 (setembro de 1996): 75–101. http://dx.doi.org/10.1177/076737019601100305.

Texto completo da fonte
Resumo:
La recherche sur les organisations suggère que la manière dont l'information est utilisée est probablement fonction de la présence de systèmes ou de processus organisationnels, en plus des activités individuelles du dirigeant. L'auteur suggère que les entreprises font varier leur insistance sur certains processus organisationnels d'information de marché, comme l'acquisition, la transmission, l'utilisation conceptuelle, et l'utilisation instrumentale d'information. L'auteur soutient que l'insistance est déterminée, en partie, par la congruence, ou l'ajustement, parmi les normes culturelles et les valeurs d'une organisation et postule de manière théorique que la présence de ces processus organisationnels d'information influe sur les résultats d'un produit nouveau. Les résultats de l'étude indiquent que les clans dominent les autres cultures en ce qui concerne la prédiction des processus organisationnels d'information de marché, suggérant que les processus d'information sont fondamentalement des «processus des gens» qui engendrent l'engagement et la confiance parmi les membres de l'organisation. Les résultats ont des implications importantes pour équilibrer les orientations internes et externes à l'intérieur des entreprises. Les résultats indiquent également que les processus d'utilisation d'information, particulièrement ceux qui sont conceptuels par nature, sont de forts prédicateurs de la performance, de l'opportunité et de la créativité d'un produit nouveau, indiquant que l'avantage compétitif est étroitement lié aux activités d'utilisation d'information dans les entreprises.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Mokhtari, Fatiha, e Tahar Mourid. "Prédiction des processus à temps continu autorégressifs via les espaces à noyau reproduisant". Comptes Rendus Mathematique 334, n.º 1 (janeiro de 2002): 65–70. http://dx.doi.org/10.1016/s1631-073x(02)02180-5.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Chédru, Marie. "Impact de la motivation et des styles d’apprentissage sur la performance scolaire d’élèves-ingénieurs". Revue des sciences de l’éducation 41, n.º 3 (26 de fevereiro de 2016): 457–82. http://dx.doi.org/10.7202/1035313ar.

Texto completo da fonte
Resumo:
Dans cette étude, nous explorons l’apport des variables de la motivation et des styles d’apprentissage dans la prédiction de la performance scolaire d’élèves-ingénieur. Les styles d’apprentissage, définis à partir du profil de préférences cérébrales, et la motivation à poursuivre des études, définie à partir de la théorie de l’autodétermination, ont été mesurés pour un ensemble de 211 étudiants inscrits dans une école française d’ingénieurs. Les analyses de régression hiérarchique indiquent que la performance scolaire s’accroît lorsque les étudiants sont intrinsèquement motivés et que leur attirance pour les processus interactifs, la pensée divergente et la créativité est faible.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Krebs, M. O. "Facteurs neurocognitifs de prédiction d’une transition psychotique". European Psychiatry 28, S2 (novembro de 2013): 17–18. http://dx.doi.org/10.1016/j.eurpsy.2013.09.042.

Texto completo da fonte
Resumo:
Les premiers épisodes psychotiques sont précédés par une phase pauci-symptomatique de 2 à 4 ans pendant laquelle les symptômes psychotiques sont présents à un niveau infraliminaire en sévérité ou en fréquence. Initialement, les patients présentent des troubles peu spécifiques tels que fléchissement scolaire, problèmes de concentration et repli, ou encore anxiété, agitation et dépression, alors que les premiers symptômes positifs atténués surviennent plus tardivement. Les critères cliniques « d’état mental à risque » (AR) identifient des patients dont 10 à 40 % feront une transition psychotique dans l’année. Les troubles cognitifs apparaissent tôt et ressemblent à ceux identifiés dans la schizophrénie, à un niveau moindre de sévérité, touchant mémoire de travail, attention, organisation et planification. La valeur prédictive de ces biomarqueurs cognitifs doit être précisée mais les revues récentes montrent l’intérêt des bilans étendus en parallèle aux évaluations cliniques, augmentant la valeur prédictive (60–80 %) et pointant particulièrement les déficits de la fluence verbale, de mémoire, de cognition sociale. Certains troubles cognitifs pourraient refléter le cœur même du processus psychotique (atteinte de la mémoire autobiographique, de la perception du self). La période de psychose non traitée influence le pronostic fonctionnel et la qualité de rémission ultérieure, justifiant l’intérêt d’un repérage précoce des sujets à risque de conversion psychotique. L’identification des troubles cognitifs associés aux phases précoces et l’étude de leur chronologie d’apparition ont un intérêt scientifique pour mieux comprendre les bases cérébrales de la transition psychotique mais également pronostique. Le suivi précoce visera des facteurs environnementaux aggravants (consommation de cannabis, stress, isolement) et pourrait permettre de définir des programmes de remédiation cognitive spécifiques au sujet et au stade de la maladie, qui pourraient permettre de limiter ou empêcher l’évolution vers la psychose. Ces observations soulignent l’intérêt du développement de centres spécialisés dans l’évaluation des jeunes adultes et les pathologies émergentes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Strauss, Mélanie, Jacobo Sitt, Jean-Rémi King, Maxime Elbaz, Leila Azizi, Marco Buiatti, Virginie Van Wassenhove, Lionel Naccache e Stanislas Dehaene. "Atteinte des processus de prédiction mais conservation de l’adaptation sensorielle au cours du sommeil". Médecine du Sommeil 12, n.º 1 (janeiro de 2015): 58. http://dx.doi.org/10.1016/j.msom.2015.01.105.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Corredor, David, Anais Vallet, Maëlle Riou, Francis Eustache e Bérengère Guillery-Girard. "Les sciences des réseaux appliquées à l’étude du Trouble de Stress Post-Traumatique". Biologie Aujourd’hui 217, n.º 1-2 (2023): 79–87. http://dx.doi.org/10.1051/jbio/2023020.

Texto completo da fonte
Resumo:
Cet article expose la manière dont les sciences des réseaux peuvent contribuer à la compréhension du Trouble de Stress Post-Traumatique (TSPT). Nous soulignons l’intérêt de concevoir le cerveau comme un système complexe et dynamique pour affiner la description et la prédiction des réponses cérébrales après exposition à un évènement traumatique. À partir des modèles de résilience au stress et sous le prisme des sciences des réseaux, nous proposons une ligne temporelle du TSPT, partant des facteurs de résilience intrinsèques au réseau, présents avant l’évènement traumatique, jusqu’à la réponse cérébrale ayant lieu après l’évènement traumatique. Dans ce cadre, il est essentiel de considérer la topologie du cerveau et les dynamiques cérébrales dans des processus permettant d’utiliser ces facteurs de résilience. Ainsi, nous proposons un cadre concret, autorisant la formulation d’hypothèses explicites sur des aspects potentiellement critiques de l’organisation et des dynamiques des réseaux cérébraux impliqués dans le TSPT.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Bouheniche, Salaheddine, e Bénina Touaibia. "Modélisation numérique du transport solide du système « barrage - cours d’eau, transport - déposition » : cas du barrage de Sidi Mohamed Ben Aouda (SMBA) sur l’oued Mina, en zone semi-aride". Revue des sciences de l’eau 26, n.º 1 (18 de março de 2013): 21–31. http://dx.doi.org/10.7202/1014916ar.

Texto completo da fonte
Resumo:
Résumé Les besoins en eau, en perpétuelle croissance, nécessitent une mobilisation des eaux de surface. La construction de barrages, menacés par un envasement précoce, nécessite une exploitation rationnelle, moyennant des outils d’aide à la quantification et à la prédiction des dépôts de sédiments. Ainsi, le comblement des retenues peut être simulé pour différentes périodes d’exploitation. La maîtrise du processus transport-déposition des sédiments, constitue un centre d’intérêt vers lequel convergent plusieurs approches : prédiction, modélisation stochastique et modélisations mathématique et physique. De multiples interactions existent entre les matériaux solides formant le lit, ceux transportés à proximité du fond et ceux se trouvant en suspension, se traduisant par divers modes de transport. Cette contribution présente un modèle numérique qui se prête au calcul par ordinateur dont le comportement morphologique du lit d’un cours d’eau peut être facilement simulé. Les étapes de son élaboration sont décrites avec détail, le code de calcul ainsi produit est mis en valeur sur un site test de validation. Un tronçon de 17 km est étudié, entre un barrage en exploitation et une station hydrométrique, sise à l’amont de celui-ci avec une bathymétrie à l’appui. Le transport solide dans le cours d’eau naturel est représenté par un système d’équations unidimensionnelles décrivant un mélange Eau-Sédiment et traduisant les lois de conservation. La méthode utilisée aux différences finies est appliquée, avec un schéma implicite. Elle est du premier ordre en temps et du deuxième ordre en espace. Les équations des écoulements à surface libre, en régime non permanent et graduellement varié, sont utilisées qui, associées à l’équation de continuité solide, forment le système de Saint-Venant-Exner. Une formule de charriage est utilisée pour exprimer le débit solide. Les résultats obtenus expliquent la contribution du transport solide par charriage dans le comblement de la retenue d’un barrage étudié en zone semi-aride.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Thiebeau, Pascal. "Relation entre taux de couverture du sol et biomasse de résidus de cultures : une simplification prédictive est envisageable". Cahiers Agricultures 28 (2019): 30. http://dx.doi.org/10.1051/cagri/2019031.

Texto completo da fonte
Resumo:
En système d’agriculture de conservation, les résidus de cultures ne sont plus brassés dans un volume de sol labouré mais maintenus à la surface des sols ou partiellement enfouis. Leur présence contribue à la durabilité de ces systèmes par le maintien des équilibres agronomiques et environnementaux qu’ils induisent. Dans ce contexte, la connaissance de l’évolution de leur quantité à la surface d’un sol, de la récolte au semis de la culture suivante, devient un enjeu important de gestion des sols. Plusieurs auteurs ont établi une relation entre le taux de couverture du sol (TC) et la biomasse, propre à chaque espèce végétale, à partir d’un formalisme développé par Grégory (1982). Les objectifs de ce travail sont de tester sa validité dans le contexte pédoclimatique de la région Grand-Est (France), après récolte et au cours du processus de décomposition des résidus. Ce travail a été réalisé sur des exploitations pratiquant l’agriculture de conservation depuis plusieurs années. Les résidus ont été broyés lors de la récolte ou d’une opération spécifique. Les données de biomasse ont été collectées à l’aide de cadres de 0,5 m × 0,5 m, tandis que la couverture du sol a été étudiée à l’aide de photographies numériques. Le taux de couverture du sol a été calculé à l’aide d’un logiciel d’analyse d’images. Ce travail compare également deux périodes de mesure : en sortie d’hiver, plusieurs mois après la récolte, et juste après la récolte estivale. Les résultats montrent une très bonne correspondance entre le TC et la biomasse mesurée au sol, toutes espèces et période de mesures confondues, moyennant l’ajout d’un paramètre au formalisme de Grégory (1982). L’intégration de la variabilité spatiale au sol permet de proposer l’emploi d’un ajustement linéaire unique qui simplifie la prédiction du TC du sol ou « la prédiction » de la quantité de biomasse.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Gagnon, C., G. Vaillancourt e L. Pazdernik. "L'accumulation et l'élimination de cadmium par deux mousses aquatiques, Fontinalis dalecarlica et Platyphypnidium ripariodes : Influence de la concentration de Cd, du temps d'exposition, de la dureté de l'eau et de l'espèce de mousses". Revue des sciences de l'eau 12, n.º 1 (12 de abril de 2005): 219–37. http://dx.doi.org/10.7202/705350ar.

Texto completo da fonte
Resumo:
Cette étude en laboratoire traite de l'accumulation et de l'élimination du Cd réalisées par deux mousses aquatiques indigènes du Québec, Fontinalis dalecarlica et Platyhypnidium riparioides. Les expositions au Cd étaient de 0 (témoin), 0,8, 2 et 10 µg·L-1, concentrations retrouvées en milieu naturel (non contaminé) et contaminé. Les expériences ont été réalisées à trois niveaux de dureté de l'eau (10 à 15, 40 à 50, 80 à 100 mg·L-1 de CaCO3), à alcalinité constante (80 à 100 mg·L-1 de CaCO3) et à pH stable (7,30) durant une période de 28 jours. Les facteurs d'augmentation des concentrations (FAC) ont démontré une diminution de l'accumulation totale de Cd dans les mousses dans 75% des cas lorsque la dureté de l'eau passe de très douce à dure. Les facteurs de contamination résiduelle (FCR) démontrent la lenteur de l'élimination du Cd par les mousses, et ce, indépendamment de la dureté de l'eau ou de la contamination préalablement subie. Deux équations de régression multiple par étape (Stepwise) ont été établies pour expliquer les facteurs influençant l'accumulation et l'élimination de Cd réalisées par les mousses. Les variables indépendantes incluses dans les équations linéaires de prédiction pour l'accumulation et l'élimination étaient la concentration de Cd dans l'eau, le temps d'exposition, la dureté de l'eau, l'espèce de mousses utilisée et/ou les interactions de ces variables. Les équations linéaires de prédiction pour l'accumulation et l'élimination ont permis d'expliquer respectivement 92% et 71% de la variance observée. Cette identification des principaux facteurs influençant l'accumulation et l'élimination du Cd dans les mousses est d'une grande importance pour la compréhension des processus complexes dirigeant l'absortion des métaux lourds par des organismes vivants. Les équations permettent également de mieux expliquer les interactions engendrées par la variation de divers paramètres sur l'accumulation et l'élimination du Cd par les mousses aquatiques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Courivaud, Jean-Robert, Laurent del Gatto, Kamal El Kadi Abderrezzak, Christophe Picault, Mark Morris e Stéphane Bonelli. "Le projet Overcome : comprendre et modéliser les processus d’érosion par surverse des digues et barrages en remblai constitués de matériaux grossiers à granulométries étalées". Revue Française de Géotechnique, n.º 178 (2024): 6. http://dx.doi.org/10.1051/geotech/2024009.

Texto completo da fonte
Resumo:
La prédiction de l’érosion par surverse des digues de protection contre les crues et des barrages en remblai constitue l’une des difficultés majeures dans l’analyse de la sûreté de ces ouvrages. Bien qu’identifié comme étant le mécanisme de rupture dominant de près de la moitié des ruptures de digues fluviales, les méthodes et outils dont disposent les ingénieurs pour le caractériser, de manière déterministe, restent encore très limités. Notamment, la caractérisation du processus d’érosion, en termes géométriques et temporels, prenant en compte le comportement des matériaux constitutifs du remblai et de sa fondation et les spécificités des sollicitations hydrauliques sur les digues, n’est encore à la portée d’aucun outil de modélisation numérique validé au niveau requis. Les ingénieurs doivent donc, pour l’instant, se contenter d’approches recourant largement à l’empirisme : critères dits « de jugement d’expert » ou formules empiriques. Ces approches très simplifiées sont connues pour présenter de fortes incertitudes et ne pas garantir des résultats systématiquement du côté de la sécurité. C’est dans le but final d’améliorer significativement la robustesse et la précision des outils de prédiction de l’érosion par surverse pour les ingénieurs, qu’EDF et CNR ont décidé de lancer le projet de recherche Overcome. L’objectif de ce projet est d’inclure au sein de la plateforme numérique open source TELEMAC-2D des modules représentant différents types de processus physiques en lien avec les ruptures par surverse de digues, basés sur une approche expérimentale multi-échelles très poussée. Cette communication présente les tous premiers résultats de l’un des premiers sujets investigués par ce projet : la description des mécanismes physiques d’érosion par surverse des remblais constitués de sol grossiers à granulométrie étalés. Ces sols sont présents dans une grande partie des digues situées en zones montagneuses ou dans les vallées situées juste en aval. Une première série d’essais de surverse à petite échelle a été menée au laboratoire de l’Université Polytechnique de Madrid, en réalisant des remblais homogènes de 55 cm de hauteur à partir de trois matériaux différents : un sable assez uniforme, un gravier de granite et un sol alluvionnaire à granulométrie étalée, issu du site CNR de Montfaucon. Si les essais avec le remblai en sable ont confirmé le mécanisme attendu d’érosion de surface, il a été assez surprenant de voir des différences significatives de mécanisme d’érosion entre les matériaux de Montfaucon et graviers de granite. Dans le matériau de Montfaucon, le mécanisme s’apparente à de l’érosion de surface, tandis qu’avec le gravier de granite, le mécanisme d’érosion débute avec du « Headcut migration » puis évolue à la fin en érosion de surface. Par ailleurs, le sol de Montfaucon s’est avéré quatre fois moins érodable que le gravier de granite. Ces premiers résultats appellent à être confirmés par des essais de répétabilité à petite échelle et des essais à plus grande échelle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Leroy, A., P. Thomas e R. Jardri. "Activation cérébrale et récompense dans la schizophrénie : une méta-analyse des données d’IRM fonctionnelle". European Psychiatry 30, S2 (novembro de 2015): S113. http://dx.doi.org/10.1016/j.eurpsy.2015.09.215.

Texto completo da fonte
Resumo:
IntroductionLa dopamine a un rôle important dans la physiopathologie de la schizophrénie. L’hypothèse d’une « attribution aberrante de saillance » dans la schizophrénie pourrait expliquer les symptômes positifs et négatifs de la schizophrénie [1]. Les processus de récompense composent la saillance motivationnelle, dans laquelle la dopamine est impliquée [2]. Ce travail a pour objectif de faire une méta-analyse des études d’activation cérébrale en IRM fonctionnelles, comparant les patients schizophrènes aux sujets sains lors des tâches de récompense.MéthodesNous avons réalisé une recherche Pubmed, utilisant les mots clés : “schizophren* OR psychosis,” “fMRI OR PET,” “salienc* OR reward”. Au total, 171 études ont été sélectionnées, dont 12 comparant spécifiquement les patients schizophrènes et témoins durant les tâches de récompense. Elles comprenaient 480 sujets et 82 foci d’activation pour l’anticipation de récompense (30 foci), la réception de la récompense (14 foci) et l’erreur de prédiction (38 foci). La méthode utilisée est une estimation de la probabilité d’activation, réalisée à l’aide d’un algorithme implémenté sur le logiciel GingerALE Version 2.3.3 [3]. Nous avons utilisé un algorithme d’inférence par Cluster (p = 0,05) avec un p non corrigé pour le seuil de formation du cluster de 0,001.RésultatsLes patients schizophrènes montraient par rapport aux patients témoins un défaut d’activation dans l’aire tegmentale ventrale, le striatum ventral bilatéral, l’hippocampe, et le cortex cingulaire antérieur, lors de l’anticipation, la réception de récompense, et lors de l’erreur de prédiction.DiscussionLes patients schizophrènes montrent par rapport aux patients témoins un défaut d’activation dans les régions méso-limbiques impliquées dans les processus de récompense [4]. Cependant, le nombre de patient, notamment pour le contraste « réception de récompense » est encore faible.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Le Clec'h, Solen, Johan Oszwald, Nicolas Jégou, Simon Dufour, Pierre André Cornillon, Izildinha de Souza Miranda, Luiz Gonzaga, Michel Grimaldi, Valéry Gond e Xavier Arnauld de Sartre. "Cartographier le carbone stocké dans la végétation : perspectives pour la spatialisation d¿un service écosystémique". BOIS & FORETS DES TROPIQUES 316, n.º 316 (1 de junho de 2013): 35. http://dx.doi.org/10.19182/bft2013.316.a20529.

Texto completo da fonte
Resumo:
Les grands programmes internationaux d'observation des écosystèmes, tels que le Millenium Ecosystem Assessment (Mea), puis Redd (Réduction des émissions liées à la déforestation et à la dégradation des forêts) et Redd+, préconisent le développement des approches permettant de quantifier et de spatialiser les services écosystémiques afin de mettre en oeuvre des pratiques et des politiques de gestion environnementale plus adaptées. La cartographie des services écosystémiques apparaît ainsi comme un outil majeur des espaces à forts enjeux environnementaux. Cependant, elle souffre encore de certaines limitations. C'est le cas du stock de carbone dans la biomasse végétale. À l'échelle d'une localité d'Amazonie brésilienne de 175 km², cette fonction écologique a été cartographiée avec une résolution spatiale de 30 x 30 m. Afin de quantifier ces stocks, des mesures de biomasse arborée et arbustive au sein de 45 " points " et des données géographiques obtenues par télédétection sont mises en jeu. Pour cela, deux méthodes statistiques sont testées : l'arbre de décision et la régression linéaire multiple. Les résultats statistiques de chacune de ces méthodes sont présentés, permettant d'en comprendre les intérêts et les inconvénients. La qualité d'ajustement de ces modèles est testée. Si l'arbre de décision décrit mieux le rôle des variables explicatives, la régression linéaire multiple permet une prédiction beaucoup plus efficace. Elle rend alors davantage compte de la variabilité spatiale au sein de chaque type d'occupation du sol. Cette méthode fait apparaître à l'échelle de la ferme des phénomènes spécifiques au territoire étudié. Cela permet de retranscrire simplement le résultat d'un processus écologique tout en le mettant en relation avec les activités anthropiques. Cette étude permet donc d'illustrer l'importance des choix méthodologiques afin d'obtenir la cartographie d'un processus.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

IMFELD, Gwenaël, Sylvain PAYRAUDEAU, Sabine SAUVAGE, Francis MACARY, Cédric CHAUMONT, Jérémie D. LEBRUN, Anne PROBST, José-Miguel SÁNCHEZ-PÉREZ, Jean-Luc PROBST e Julien TOURNEBIZE. "Quel est le rôle des retenues collinaires pour limiter les flux de pesticides dans le paysage agricole ?" Sciences Eaux & Territoires, n.º 43 (9 de outubro de 2023): 49–56. http://dx.doi.org/10.20870/revue-set.2023.43.7792.

Texto completo da fonte
Resumo:
Les systèmes aquatiques tels que les mares, les zones humides, les bassins d’orage, les retenues collinaires, ci-après nommées « retenues d’eau », sont des systèmes de rétention d'eau omniprésents dans les bassins versants agricoles. Ces retenues opèrent comme des réacteurs biogéochimiques naturels, contrôlant la dissipation et le transfert des contaminants agricoles, dont les pesticides, à l'échelle du bassin versant. De façon complémentaire aux mesures et aux pratiques de réduction voire d’élimination de l’utilisation des pesticides de synthèse, le projet PESTIPOND (2018-2023), financé par l’Agence nationale de la recherche (ANR), s’est intéressé au rôle des retenues dans les transferts de pesticides à l'échelle du bassin versant. Les résultats principaux sont présentés dans cet article. PESTIPOND a permis de mieux comprendre, hiérarchiser et prédire les processus qui conditionnent la dissipation des pesticides dans les retenues et comment la dissipation des pesticides dans les retenues régit le transfert de pesticides à l'échelle du bassin versant dans des conditions hydro-climatiques et des pratiques d'exploitation agricole variables. Pour intégrer les aspects multi-échelles et dynamiques de cette problématique, un cadre de modélisation tenant compte du rôle des retenues à l'échelle du bassin versant est proposé pour améliorer la prédiction du transfert de pesticides et l'évaluation des risques de transfert vers les écosystèmes aquatiques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Robert, C., O. Banton, P. Lafrance e J. P. Villeneuve. "Analyse de sensibilité paramétrique d'un modèle simulant le transport de pesticide dans le sol". Revue des sciences de l'eau 5, n.º 2 (12 de abril de 2005): 197–210. http://dx.doi.org/10.7202/705128ar.

Texto completo da fonte
Resumo:
Afin de protéger l'eau souterraine des pesticides épandus à la surface des sols agricoles, on doit être capable de prédire et d'évaluer a priori les risques de contamination. La modélisation mathématique, qui est basée sur la représentation des processus, s'avère être un outil à privilégier pour une telle prédiction. Cependant, la fiabilité des résultats de ces modèles est fonction de la précision et de la représentativité des différents paramètres d'entrée. A l'aide d'une analyse de sensibilité, il est possible d'évaluer l'impact de la variabilité de ces paramètres sur les résultats de la modélisation. Une étude de sensibilité menée avec le modèle Pesticide Rosit Zone Model (PRZM) a permis d'identifier les paramètres physiques d'entrée dont la variation apporte le plus de changements au niveau des principaux résultats, c'est-à-dire les paramètres d'entrée auxquels le modèle est le plus sensible. L'utilisation du coefficient de sensibilité relatif s'avère être à cet égard un outil de comparaison fort efficace dans le cadre d'une telle étude. Les paramètres d'apport en eau (précipitations) et en pesticide (taux d'application) sont ceux dont les variations provoquent le plus d'impact au niveau des résultais de la simulation. Egalement, les résultats des simulations sont aussi sensibles aux variations de la capacité au champ et de la densité du sol. La température, le point de flétrissement, ta profondeur d'évaporation et la dispersion sont des paramètres auxquels la modélisation est peu sensible.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Dubois, Jean-Marie M., e Léo Provencher. "Évolution de la géomorphologie depuis la fin du XIXe siècle". Cahiers de géographie du Québec 54, n.º 151 (8 de setembro de 2010): 77–116. http://dx.doi.org/10.7202/044368ar.

Texto completo da fonte
Resumo:
Jusque dans les années 1940, ce sont des géologues qui s’intéressent à la physiographie, car la géomorphologie ne fait pas encore partie de la formation universitaire en géographie au Québec. Les premiers départements de géographie sont créés à la fin des années 1940 et les premières publications en géomorphologie apparaissent au milieu des années 1950. Les géographes sont davantage préoccupés par la géomorphologie dynamique que par la physiographie. L’institutionnalisation de la géomorphologie commence au milieu des années 1960 alors que les années 1970 marquent le début de l’apogée de la géomorphologie avec l’expansion du réseau de l’enseignement universitaire et la création de laboratoires, confirmant le passage d’une géomorphologie descriptive à une géomorphologie quantitative. Les décennies 1970 et 1980 sont caractérisées par la prolifération des recherches dans tous les domaines de la géomorphologie dynamique. C’est la période durant laquelle bon nombre de géomorphologues sont engagés par des organismes gouvernementaux ainsi que par des firmes d’ingénieurs et d’environnementalistes pour réaliser des inventaires régionaux. L’utilisation d’ordinateurs personnels au milieu des années 1980 et de SIG depuis le début des années 1990, combinés à de meilleurs outils d’observation de la Terre, a favorisé l’émergence d’une nouvelle géomorphologie axée sur la modélisation des processus. Toutefois, une ombre au tableau demeure : la récente disparition de plusieurs programmes de formation en géographie physique au niveau universitaire. L’avenir de la géomorphologie réside dans une optimisation des outils d’observation, de mesure et de prédiction.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Nazoumou, Y., e M. Besbes. "Simulation de la recharge artificielle de nappe en oued par un modèle à réservoirs". Revue des sciences de l'eau 13, n.º 4 (12 de abril de 2005): 379–404. http://dx.doi.org/10.7202/705399ar.

Texto completo da fonte
Resumo:
Dans la zone semi-aride de Tunisie centrale, un grand barrage a été construit en 1982 sur l'oued Zeroud, dont l'infiltration des crues naturelles constituait jadis la principale source d'alimentation des nappes de la plaine de Kairouan. Ce barrage est destiné à l'écrêtement des crues, l'irrigation et à la recharge des nappes à l'aval de la retenue. Entre 1988 et 1996, plus de 70 millions de m3 d'eau ont été mobilisés sous forme d'ondes de lâchers à partir du barrage pour la recharge artificielle par infiltration dans le lit de l'oued. Le suivi des ondes de lâchers est effectué sur 3 stations de contrôle disposées sur une distance de 40 km le long du lit. L'analyse de l'évolution des débits a révélé que la capacité d'infiltration du lit augmente progressivement avant de se stabiliser, mettant en évidence l'effet de l'air sur le processus de recharge. Un modèle conceptuel à réservoirs conjuguant fonctions de production et de transfert avec discrétisation spatiale a permis de modéliser la propagation et l'infiltration des ondes de lâchers le long de l'oued. Son ajustement sur un échantillon de six événements de lâchers a fourni des résultats satisfaisants. Même si la validation reste insuffisante en raison de la rareté des données, ce modèle peut constituer un premier outil d'évaluation de l'efficacité de la recharge et de prédiction de son impact sur la nappe souterraine de la plaine de Kairouan.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

PHOCAS, F., C. BELLOC, J. BIDANEL, L. DELABY, J. Y. DOURMAD, B. DUMONT, P. EZANNO et al. "Quels programmes d’amélioration génétique des animaux pour des systèmes d’élevage agro-écologiques ?" INRA Productions Animales 30, n.º 1 (14 de junho de 2018): 31–46. http://dx.doi.org/10.20870/productions-animales.2017.30.1.2232.

Texto completo da fonte
Resumo:
L’agro-écologie utilise les processus naturels et les ressources locales plutôt que des intrants chimiques pour assurer la production tout en limitant l’impact environnemental de l’agriculture. A cette fin, des innovations en génétique sont nécessaires pour disposer d’animaux productifs et adaptés à des contextes locaux variés. Pour toute filière d’élevage, réorienter les programmes de sélection actuels semble plus utile que développer des programmes spécifiques qui peineront à être efficaces en termes de coûts et de progrès génétiques attendus. Améliorer la robustesse des animaux vise à promouvoir leurs capacités d’adaptation en intégrant de nombreux critères de sélection, en particulier de reproduction, santé, et d’adaptation à des ressources alimentaires peu digestibles et au changement climatique. Cela amène à considérer les interactions génotype-environnement dans la prédiction des valeurs génétiques et à évaluer les performances des animaux dans des systèmes à bas intrants pour sélectionner ceux qui sont adaptés à des conditions limitantes. La standardisation tant des animaux que des conditions d’élevage paraît antinomique avec les principes de l’agro-écologie prônant une adaptation des animaux aux ressources et contraintes locales dans des systèmes peu artificialisés et très liés à leur environnement physique. Il n’y a donc pas UN animal type agro-écologique, mais DES animaux aux profils variés permettant de répondre aux attentes de l’agro-écologie. Face à la diversité des milieux et des systèmes d’élevage, il faut conserver une diversité génétique importante intra-race, mais aussi préserver la diversité génétique entre races. Cela nécessite une caractérisation phénotypique et génétique des races locales. Enfin, il s’agit de favoriser l'appropriation par les éleveurs et les techniciens d’élevage des outils et des ressources génétiques disponibles pour répondre à leurs besoins.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

GONZÁLEZ VÁZQUEZ, B., J. M. CHOUBERT, J. P. CANLER e E. PAUL. "Prévoir et prévenir la dérive vers le colmatage d’un biofiltre". 3 3 (21 de março de 2022): 49–62. http://dx.doi.org/10.36904/tsm/202203049.

Texto completo da fonte
Resumo:
La biofiltration est une technologie compacte, efficace pour le traitement des effluents urbains, et bien implantée en France et dans le monde. Certaines installations sont toutefois régulièrement touchées par un colmatage irréversible nécessitant des interventions lourdes pour rétablir la capacité de traitement. Compte tenu de la multiplicité des causes possibles et du caractère dynamique du fonctionnement des installations, détecter la dérive vers le colmatage irréversible nécessite une très bonne connaissance des processus, du dimensionnement, de l’historique de fonctionnement et des limites d’exploitation des installations. Le travail présenté ici propose une méthode systématique d’analyse multicritère des données de fonctionnement d’une installation de biofiltration en vue de maîtriser les étapes menant au colmatage sans atteindre le stade irréversible. Il définit les descripteurs à suivre et leur fréquence de détermination, et présente la méthode de définition de l’état de référence auquel les conditions de fonctionnement doivent être comparées. Cette méthode est illustrée avec des données couvrant une période de plus de deux ans de suivi d’une installation réelle. Nous avons montré que l’analyse de la survenue du colmatage irréversible et la détermination des causes possibles peuvent être réalisées à partir de l’analyse minutieuse des charges hydrauliques, des charges volumiques en demande chimique en oxygène (DCO) et en matières en suspension (MES), des concentrations de l’eau à traiter à l’entrée de la biofiltration et de la fraction biodégradable, de la durée de filtration, ou encore à travers l’analyse des conditions de fonctionnement du traitement primaire en intégrant l’impact des retours et plus particulièrement les eaux de lavage des biofiltres. La méthode s’appuie également sur des critères créés spécifiquement pour confirmer et situer le colmatage irréversible dans le temps, tels que les pertes de charge et le volume de vide (porosité) au début d’un cycle de filtration (après lavage). La prédiction et la prévention de la survenue d’un colmatage irréversible par cette méthode permettent l’amélioration des performances épuratoires, la fiabilité du fonctionnement de la biofiltration et donc la réduction des coûts d’exploitation et de l’impact environnemental.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Andrieux, P., M. Voltz e A. Durbec. "Fonctionnement hydrologique d'un interfluve sédimentaire de la plaine côtière ancienne de Guyane Française". Revue des sciences de l'eau 9, n.º 1 (12 de abril de 2005): 51–74. http://dx.doi.org/10.7202/705242ar.

Texto completo da fonte
Resumo:
Le fonctionnement hydrologique de la plaine côtière ancienne de Guyane française constitue une des contraintes majeures à sa mise en valeur agricole, du fait de l'existence de périodes d'excès d'eau prolongées. L'objectif de cet article est d'analyser, sur un interfluve caractéristique de la plaine côtière ancienne, la forme et la dynamique de la nappe et ses sources d'alimentation en relation avec la variabilité des propriétés physiques des sols. Sur le plan expérimental, le travail est conduit à partir d'un suivi hydrologique in situ des fluctuations de la nappe observées sur 21 stations et d'une caractérisation de la variabilité spatiale de la conductivité hydraulique des sols par la méthode du trou de tarière à charge variable. Sur le plan de la modélisation, l'identification de la répartition spatiale de la recharge sur l'interfluve est déterminée par une modélisation inverse. Les suivis montrent d'une part la rapidité de réponse de la nappe aux pluies et d'autre part des temps de présence de la nappe en surface variables selon les sols. La modélisation conforte l'hypothèse d'isolement hydraulique de l'interfluve. La dynamique de la nappe est directement reliée aux entrées pluviométriques et dans une moindre mesure aux sols. La variabilité spatiale de la recharge est par ailleurs sous la dépendance de la topographie et de l'hétérogénéité spatiale de la conductivité hydraulique. Enfin, une estimation du ruissellement de surface souligne son importance sur l'interfluve. Les résultats obtenus montrent que l'engorgement des sols de la plaine côtière est sous la dépendance directe des processus hydrologiques observés à l'échelle de chaque interfluve. La prédiction des zones à excès d'eau marqué et des zones où la recharge est homogène peut être envisagée à partir de la connaissance de la topographie et de la distribution des sols. Sur le plan agronomique et pour les sols à forte contrainte hydrique, la mise en place de systèmes de drainage permettant leur mise en valeur agricole est à considérer.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Cruz García, Lirios. "Teoría del comportamiento sustentable para el desarrollo local". Clivajes. Revista de Ciencias Sociales, n.º 9 (24 de abril de 2018): 71–94. http://dx.doi.org/10.25009/clivajes-rcs.v0i9.2546.

Texto completo da fonte
Resumo:
La psicología de la sustentabilidad estriba en la predicción de un comportamiento que, por sus dimensiones y determinantes, se ha identificado como factor de sustentabilidad. En este sentido, este trabajo pretende discutir el proceso sociohistórico en el que se ha desarrollado el constructo del comportamiento sustentable, más a partir de evidencias empíricas que de debates teóricos, conceptuales, metodológicos o estadísticos. Este ejercicio llama la atención acerca de la participación deliberativa de la comunidad y se inscribe en el debate sobre la relación entre sociedad y Estado con respecto a la conservación de los recursos naturales mediante los servicios públicos, municipales y residenciales. En este tenor, la revisión de los hallazgos extraídos del contraste de modelos de medición en referencia a modelos estructurales supone no sólo la especificación de relaciones de dependencia, sino su discusión, dado que fueron importados de disciplinas tales como la pedagogía, la economía, la sociología o la antropología para incorporarlos en los modelos predictivos del comportamiento sustentable.Palabras clave: Recursos naturales, Servicios públicos, Psicología de la sustentabilidad, Comportamiento sustentable, Modelos estructurales Theory of sustainable behavior for local developmentSummaryThe psychology of sustainability is based on the prediction of a behavior that, due to its dimensions and determinants, has been identified as a sustainability factor. In this sense, this work aims to discuss the sociohistorical process in which the construct of sustainable behavior has been developed, more from empirical evidence than from theoretical, conceptual, methodological or statistical debates. This exercise draws attention to the deliberative participation of the community and is part of the debate about the relationship between society and the State with respect to the conservation of natural resources through public, municipal and residential services. In this sense, the review of the findings extracted from the contrast of measurement models in reference to structural models supposes not only the specification of dependency relations, but their discussion, given that they were imported from disciplines such as pedagogy, economics, sociology or anthropology to incorporate them into predictive models of sustainable behavior.Keywords: Natural resources, Public services, Sustainability psychology, Sustainable behavior, Structural models. Théorie du comportement pour le développement durable au niveau localRésuméLa psychologie du développement durable réside dans la prédiction d’un comportement qui, par ses dimensions et déterminations, a été identifié comme un facteur en faveur de ce développement. En ce sens, ce travail prétend rendre compte du processus historique dans lequel s’est construit le comportement pour le développement durable, davantage à partir d’évidences empiriques que de débats théoriques, méthodologiques et statistiques. Cet exercice met l’accent sur la participation délibérative de la communauté et s’inscrit dans le débat sur la relation entre société et Etat en ce qui concerne la conservation des ressources naturelles au travers des services publics, municipaux et résidentiels. De ce point de vue, l’examen des découvertes extraites du contraste entre les modèles de mesure en référence aux modèles structurels suppose non seulement la mise en lumière spécifique de relations de dépendance, mais aussi leur discussion, puisqu’ils furent importés de disciplines comme la pédagogie, l’économie, la sociologie et l’anthropologie, afin de les incorporer aux modèles prédictifs du comportement en faveur du développement soutenable.Mots-clés: Ressources naturelles, Services publics, Psychologie du développement durable, Comportement pour le développement durable, Modèles structurels
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

HARINAIVO, A., H. HAUDUC e I. TAKACS. "Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle". Techniques Sciences Méthodes 3 (20 de março de 2023): 33–42. http://dx.doi.org/10.36904/202303033.

Texto completo da fonte
Resumo:
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Heimann, Hans. "La désintégration psychotique et le structuralisme de Jean Piaget". Psychiatry and Psychobiology 2, n.º 1 (1987): 18–27. http://dx.doi.org/10.1017/s0767399x00000602.

Texto completo da fonte
Resumo:
RésuméL’étude publiée en 1922 par A. Storch aborde les comportements, le vécu et la pensée schizophréniques par analogie avec les stades précoces du développement de l’enfant et avec les structures de la pensée de certains peuples primitifs.En nous fondant sur l’œuvre de Piaget qui a élargi la psychologie génétique en un structuralisme épistémologique, nous pouvons aujourd’hui entreprendre l’interprétation de la psychopathologie de la désintégration psychotique au cours des psychoses endogènes et exogènes. Parmi les processus interactifs qui se jouent entre l’organisme et le monde ambiant, l’attention sélective revêt une importance particulière. Elle reste insérée dans le fonctionnement global de l’organisme (au sens de Piaget), ce qui en fait un système fonctionnel dynamique. Les structures en sont représentées dans le modèle systémique d’Anochin.Des observations de schizophrènes et de psychoses modèles expérimentales (portant principalement sur le vécu psychotique et sur la constitution des concepts de l’espace et du temps) montrent les perturbations de la saisie et du traitement de l’information. Ces perturbations font que l’organisme est submergé d’impressions sensorielles chaotiques ce qui l'amène à adopter des comportements de réparation, en particulier : - la régression avec reprise de schémas qui dans l'ontogenèse correspondent à un rapport au monde dépourvu d’information structurée - et une tendance excessive au repli qu’on peut mettre en évidence, dans un groupe de schizophrènes, par l’étude de paramètres végétatifs. Cette mise en évidence se fait grâce à une situation expérimentale qui, chez les sujets sains, provoque une réaction d’orientation. Chez environ 40 % des schizophrènes cette réaction fait défaut ou il y a une habituation extrâmement rapide. Ces patients, comparés au groupe sans habituation ont au niveau psychopathologique des symptômes de repli. Des études récentes, portant sur la prédiction de la réponse au traitement, montrent que le groupe des répondeurs - c’est-à-dire de ceux qui n’ont pas cette tendance au repli - a un pronostic moins favorable au traitement neuroleptique.Pour finir, nous indiquons que, au cours de la désintégration psychotique, les différents systèmes psychophysiologiques obéissent au principe primitif du “tout ou rien”. Ils perdent les degrés de liberté supplémentaires caratéristiques d’une modulation mieux différenciée. Ceci nous ramène à Piaget et à sa conceptualisation du structuralisme comme construction, c’est-à-dire au primat de l’opération.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

SACRAMENTO, Isabelle Tèniola, Guy Apollinaire MENSAH e Jean-Marc ATEGBO. "Détermination de l’âge de l’aulacode par le poids du cristallin de l’œil". Journal of Applied Biosciences 181 (31 de janeiro de 2023): 18917–24. http://dx.doi.org/10.35759/jabs.181.4.

Texto completo da fonte
Resumo:
Objectifs : Conscient que la qualité de la viande varie en fonction de l’âge, la détermination de l’âge de l’aulacode gibier dans le but de comparer la qualité organoleptique, microbiologique et technologique de sa viande à celle de l’aulacode d’élevage est indispensable ce qui justifie la présente étude. Méthodologie et résultats : L’âge de 24, 36 et 48 semaines respectivement des 150 aulacodes tous sexes confondus (50 aulacodes par tranche d’âge) étudiés était connu avec précision au moment du prélèvement du cristallin. Un total de 60 aulacodes sauvages ou aulacodes gibiers dont 30 aulacodins et 30 aulacodines, avec des âges estimés à 7, 8 et 12 mois, abattus par des chasseurs a été utilisé dans cette étude. La technique de Lord (1959) modifiée par Martinet (1966) a été employée. Dès leur abattage, les aulacodes âgés de 24, 36 et 48 semaines ont été mesurés, pesés pleins et vidés au kg puis sexés. Les deux yeux ont été prélevés entiers et intacts et mis dans un flacon d’eau formolée à 10%. Les yeux ont été conservés dans un flacon étanche à large ouverture en polyéthylène de PROLABO et n’ont pas été congelés. Le flacon a été muni d’une étiquette autocollante renseignée de façon indélébile où a été mentionnée la date de l’abattage, le sexe et le poids exact pesé plein et vide. Un séjour de 30 jours minimum dans une solution de formol a été nécessaire pour permettre la stabilisation du cristallin et sa manipulation sans risque de l’abimer. Les cristallins ont été alors extraits du globe oculaire, nettoyés et mis à dessiccation complète dans une étuve ventilée à 100° C pendant 24 heures. Ils ont été ensuite pesés au milligramme près (0,000). Enfin le poids moyen des cristallins a été calculé pour chaque tranche d’âge. Conclusion et application des résultats: La courbe établie permettra de déterminer avec précision l’âge des aulacodes d’élevage sans fiche de suivi, des aulacodes gibiers et des rongeurs apparentés à l’aulacode chaque fois que le processus de prélèvement du cristallin utilisé dans cette étude sera respecté. Mots-clés : Aulacodes, Bénin, détermination de l’âge, équation de prédiction, pesée de cristallin.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Carrive, Laurent. "De la réalité des modèles et des théories". Acta Europeana Systemica 4 (14 de julho de 2020): 89–98. http://dx.doi.org/10.14428/aes.v4i1.57283.

Texto completo da fonte
Resumo:
La réalité des modèles comme des théories fait aujourd’hui l'objet de nombreux débats. Pourtant, ce critère essentiel reste actuellement négligé du fait de l’expansion d'un certain constructivisme, qui admet implicitement une forme d’équivalence entre justesse des prédictions et réalité physique. Dans cet article, nous entendons par modèle physique, un système mathématico-logique prédictif, permettant de simuler le comportement d’un objet. Une théorie, plus générale qu’un modèle, désignera un objet cognitif qui prétend décrire et expliquer la nature et le comportement réel d’un phénomène. Nous considérons ensuite qu’un modèle est opérationnel lorsqu’il décrit précisément les processus physiques qui engendrent l’action. Tandis qu’un modèle sera dit nonopérationnel s'il met en oeuvre des évaluations qui ne peuvent être obtenues que rétrospectivement, par exemple par un calcul d’extremum. Enfin, nous qualifions un modèle de réel, s’il est opérationnel et si, de plus, ses variables et opérations sont prises strictement dans le domaine de réalité considéré (en référence aux poupées russes de Bitbol [9]). Une théorie est donc nécessairement un modèle réel, ou supposé tel.Il nous est apparu que les théories physiques sont la plupart du temps, organisées de manière hiérarchique, comportant à leur base des modèles réels surmontés de modèles non-réels. Les modèles réels permettent de découvrir de nouveaux phénomènes, par exemple la découverte de la circulation aérodynamique autour d’une aile d’avion par Nikolaï Joukovski. Par contre, la non-réalité de certains modèles peut conduire à des raisonnements erronés, en suggérant une fausse réalité. Toutefois, les modèles non-réels peuvent être très utiles lorsque les objets manipulés sont inobservables, car trop petits ou imaginaires. La qualité de leurs prédictions peut être aussi bonne que celle fournie par les modèles réels. C'est le cas de la mécanique quantique, développée au début du XXème siècle, qui a montré sa très grande utilité pratique et la surprenante exactitude de ses prédictions. Lors de son développement, les niveaux de réalité concernés étaient alors complètement inobservables. Ils ont donc été imaginés. L’évolution actuelle de la technologie, commence à permettre une certaine visibilité des atomes et des couches électroniques, ce qui pourrait profondément remettre en cause ce modèle en exhibant sa non-réalité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Salaün de Kertanguy, Hélène, e Anne Andronikof. "Reaction to Tragic Loss of Sociocultural Environment in the Adivasi Tribes: A Rorschach Study 1A preliminary version of this study was presented orally at the XVI International Congress of Rorschach and Projective Methods (Amsterdam, July 1999)." Rorschachiana 26, n.º 1 (janeiro de 2004): 11–25. http://dx.doi.org/10.1027/1192-5604.26.1.11.

Texto completo da fonte
Resumo:
Ce travail a son origine dans la question posée du devenir des peuples traditionnels dans le contexte du changement culturel accéléré par les processus de modernité des sociétés occidentalisées et industrielles. L'étude présentée prolonge une longue recherche psychosociologique et ethnoclinique menée auprès de peuples arctiques: Inuit du Groenland, Esquimaux de Sibérie orientale et Tchouktches (expéditions scientifiques de Jean Malaurie de 1950 à nos jours). Elle a été réalisée auprès de tribus Adivasi du sud de l'Inde et doit se poursuivre chez des peuples nomades et semi-nomades d'Asie centrale. Le questionnement est double: Premièrement, le test de Rorschach est-il transférable Í d'autres cultures que celles, industrialisées et occidentalisées, où il a été inventé? Deuxièmement, le test de Rorschach en Système Intégré peut-il être questionné comme outil d'aide à la prédiction des processus comportementaux, cognitifs et affectifs de sujets confrontés à des situations de mouvances culturelles, sociales et économiques inattendues ou forcées? Le contenu de cet article est une réponse à ce questionnement. Les auteurs présentent les résultats obtenus au test de Rorschach de peuples traditionnels, tribus Adivasi du sud de l'Inde, soumis Í de profondes transformations de leur milieu environnant. Le contrôle exagéré des affects et l'attitude de distanciation, freinant l'expression ouverte et extériorisée de leur vécu personnel et relationnel, aboutissent Í une importante coartation affective et cognitive. Ce résultat a été interprété comme un signe de traumatisme psychique coûteux, comme une impossibilité à lutter face à une angoisse probablement envahissante qui témoigne de l'importance de l'impact de l'environnement: plus il y a de décalage et de déracinement avec le lieu d'origine, plus il y aurait des risques de défaillance identitaire. Mais cet état d'inhibition et de coartation des tribus permettrait aussi l'élaboration d'interrelations simplificatrices et constituerait une position d'a-conflictualité avec les Indiens non-tribus, groupe culturellement et économiquement dominant. En effet, les réponses qui s'expriment uniquement par la forme font cependant référence au réel, Í l'objectivité, ce qui serait un compromis adaptatif. Des études ont montré que l'activité fantasmatique est mobilisée par la perte et le traumatisme. Ce mode privilégié d'interaction avec l'autre, sans implication projective ni attraction sensorielle, est celui qui est utilisé par ces tribus. La situation traumatique ne semble pas pouvoir favoriser les capacités d'expression pulsionnelle ni les représentations fantasmatiques. L'auteur s'interroge également sur les aspects pathologiques des indices au Rorschach repérés dans les groupes précédemment étudiés, Inuit du Groenland, Esquimaux de Sibérie orientale et Tchouktches et particulièrement chez les tribus Adivasi de cette étude. Les données obtenues ont été envisagées comme une attitude défensive opérante et comme une nécessité de survie psychique identitaire et culturelle particulièrement nécessaires pour faire face à des circonstances déstabilisantes du nouveau milieu environnant. Ce qui pourrait alors découler de ces réflexions, c'est une conception du pathologique qui ne serait pas forcément symétrique ni applicable d'une culture à l'autre. Le pathologique pourrait avoir une autre signification que celle d'un indicateur de déviance ou de troubles divers. En conclusion, cette étude montre que l'utilisation du test de Rorschach en Système Intégré en interculturel est pertinente. L'interprétation doit cependant tenir compte des caractéristiques intrinsèques du fonctionnement psychique du sujet dans ses aptitudes Í transposer ses multiples registres perceptifs, cognitifs, imaginaires et symboliques selon les concepts théoriques de l'universalité du psychisme, dans un contexte à définir à chaque fois, et variant d'un type de culture Í l'autre selon les principes du culturalisme.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Facon, Benoit, Ludovic Mailleret, David Renault e Lionel Roques. "Processus d’invasions biologiques : de l’approche descriptive à l’approche prédictive / Biological invasion processes : evaluation and prediction". Revue d'Écologie (La Terre et La Vie) 12, n.º 1 (2015): 110–13. http://dx.doi.org/10.3406/revec.2015.1820.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Морозов, B. H., B. H. Татаринов e И. Ю. Буров. "PREDICTING OF POTENTIAL PROPAGATION CHANNELS FOR ECOLOGICALLY HARMFUL SUBSTANCES IN GEOLOGIC MEDIA". Environment. Technology. Resources. Proceedings of the International Scientific and Practical Conference 1 (20 de junho de 2001): 102. http://dx.doi.org/10.17770/etr2001vol1.1970.

Texto completo da fonte
Resumo:
The questions o f assessment and prédiction of potential charnels o f infiltration of radionuclides in géologie environment are discussed. This is specially important for underground allocation of the nuclear objects. The method of allows for spatial-temporal variations in a geological massif at ail hierarchical levels from régional tectonic processes up top peri-contour zones of chambers.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Seuront-Scheffbuch, Dorine, e Laurent Seuront. "La qualité du processus transfusionnel : vers une approche prédictive ?" Transfusion Clinique et Biologique 28, n.º 4 (novembro de 2021): S87. http://dx.doi.org/10.1016/j.tracli.2021.08.257.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Bougeard, Alan, Rose Guay Hottin1, Valérie Houde, Thierry Jean, Thibault Piront, Stéphane Potvin, Paquito Bernard, Valérie Tourjman, Luigi De Benedictis e Pierre Orban. "Le phénotypage digital pour une pratique clinique en santé mentale mieux informée". Santé mentale au Québec 46, n.º 1 (21 de setembro de 2021): 135–56. http://dx.doi.org/10.7202/1081513ar.

Texto completo da fonte
Resumo:
Objectifs Cette revue trouve sa motivation dans l’observation que la prise de décision clinique en santé mentale est limitée par la nature des mesures typiquement obtenues lors de l’entretien clinique et la difficulté des cliniciens à produire des prédictions justes sur les états mentaux futurs des patients. L’objectif est de présenter un survol représentatif du potentiel du phénotypage digital couplé à l’apprentissage automatique pour répondre à cette limitation, tout en en soulignant les faiblesses actuelles. Méthode Au travers d’une revue narrative de la littérature non systématique, nous identifions les avancées technologiques qui permettent de quantifier, instant après instant et dans le milieu de vie naturel, le phénotype humain au moyen du téléphone intelligent dans diverses populations psychiatriques. Des travaux pertinents sont également sélectionnés afin de déterminer l’utilité et les limitations de l’apprentissage automatique pour guider les prédictions et la prise de décision clinique. Finalement, la littérature est explorée pour évaluer les barrières actuelles à l’adoption de tels outils. Résultats Bien qu’émergeant d’un champ de recherche récent, de très nombreux travaux soulignent déjà la valeur des mesures extraites des senseurs du téléphone intelligent pour caractériser le phénotype humain dans les sphères comportementale, cognitive, émotionnelle et sociale, toutes étant affectées par les troubles mentaux. L’apprentissage automatique permet d’utiles et justes prédictions cliniques basées sur ces mesures, mais souffre d’un manque d’interprétabilité qui freinera son emploi prochain dans la pratique clinique. Du reste, plusieurs barrières identifiées tant du côté du patient que du clinicien freinent actuellement l’adoption de ce type d’outils de suivi et d’aide à la décision clinique. Conclusion Le phénotypage digital couplé à l’apprentissage automatique apparaît fort prometteur pour améliorer la pratique clinique en santé mentale. La jeunesse de ces nouveaux outils technologiques requiert cependant un nécessaire processus de maturation qui devra être encadré par les différents acteurs concernés pour que ces promesses puissent être pleinement réalisées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Pain, Jean-Christophe. "L’hélio-sismologie et l’énigme de l’opacité du fer". Reflets de la physique, n.º 58 (junho de 2018): 10–15. http://dx.doi.org/10.1051/refdp/201858010.

Texto completo da fonte
Resumo:
La mesure du spectre de pulsations d’une étoile permet d’obtenir des informations sur les processus physiques qui régissent sa structure et son évolution. La révision récente des abondances chimiques solaires entraîne un désaccord entre le modèle stellaire standard et les mesures d’hélio-sismologie. L’opacité du fer a été mesurée en laboratoire, dans des conditions proches de celles de l’interface entre les zones radiative et convective du Soleil. Les opacités déduites des mesures sont, dans une gamme spectrale allant de 7 à 12,7 Å, de 30 à 400 % supérieures aux calculs, ce qui tend à réconcilier mesures hélio-sismiques et prédictions du modèle standard, mais demeure une énigme pour les théoriciens.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Strauss, M., J. Sitt, J. R. King, M. Elbaz, L. Naccache e S. Dehaene. "Processus cognitifs dans le sommeil : un codage prédictif reste-t-il possible ?" Médecine du Sommeil 11, n.º 1 (janeiro de 2014): 6. http://dx.doi.org/10.1016/j.msom.2014.01.010.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Dampérat, Maud, Florence Jeannot, Eline Jongmans e Alain Jolibert. "Modélisation d’un processus de co-créativité : les apports du design et du management". Recherche et Applications en Marketing (French Edition) 34, n.º 3 (5 de março de 2019): 124–53. http://dx.doi.org/10.1177/0767370119830383.

Texto completo da fonte
Resumo:
Résumé Cette étude a pour but d’améliorer le développement de nouveaux produits en fournissant aux praticiens et aux chercheurs une meilleure compréhension du processus de co-créativité via l’intégration des apports du design et du management à la démarche marketing. Elle propose et teste empiriquement un modèle de co-créativité basé sur les trois étapes du design thinking : (1) la définition des besoins, (2) la production des idées, et (3) le prototypage de la solution. Ce modèle étudie également l’influence de variables individuelles – empathie, familiarité avec le domaine, implication dans la tâche – sur le processus créatif. Les résultats valident le rôle médiateur des variables associées à la production d’idées entre la définition des besoins et le prototypage, ainsi que l’intérêt des variables individuelles sélectionnées. La validité prédictive du processus de co-créativité est testée via l’évaluation de la performance créative. Plusieurs domaines d’action sont proposés à chaque étape du processus de co-créativité, permettant aux organisations de stimuler la créativité de leurs équipes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Pénin, Julien, e Thierry Burger-Helmchen. "Crowdsourcing d’activités inventives et frontières des organisations1". Management international 16 (20 de setembro de 2012): 101–12. http://dx.doi.org/10.7202/1012396ar.

Texto completo da fonte
Resumo:
Le crowdsourcing d’activités inventives (CAI) consiste à externaliser à une foule des activités de recherche, des tâches complexes ou créatives. Plusieurs exemples récents ont mis en avant les avantages de ce type de pratique, aussi bien pour réduire les coûts du processus d’innovation que pour améliorer ses résultats. Dans ce travail, nous étudions l’impact organisationnel du CAI en mobilisant les théories sur les frontières des organisations. La littérature identifie quatre frontières différentes : frontière d’efficience, d’influence, de compétence et d’identité. L’analyse en termes de frontière des organisations nous permet notamment de mettre en avant certaines limites du recours au CAI et d’élaborer des prédictions théoriques sur les conditions d’émergence et d’utilisation du CAI.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Stark, Ryan J. "The Decline of Astrology in the Jonathan Dove Almanac Series". Renaissance and Reformation 30, n.º 2 (1 de janeiro de 2006): 43–66. http://dx.doi.org/10.33137/rr.v30i2.9574.

Texto completo da fonte
Resumo:
Cet article montre comment les imprimeurs de Cambridge ont transformé les almanachs de Jonathan Dove en incluant graduellement les nouvelles tendances empiriques et en abandonnant les tendances ésotériques qu'ils contenaient, et ce pendant plusieurs décennies au-delà de la mort de l'auteur. En 1692, Dove, disparu à cette date, confesse sur un ton mélancolique que ses anciennes « prédictions astrologiques » étaient des vanités mensongères, aveux tardifs en regard des progrès de l'empirisme. Cet article offre une étude inédite de la démission de l'astrologue à travers l'histoire complète d'une série complète d'un almanach précis, d'autant plus que c'est précisément le caractère graduel de cet eff ondrement - qui s'avère ardu, complexe et confus - qui rend ce processus si instructif et fascinant.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

PEYRAUD, J. L., e F. PHOCAS. "Dossier " Phénotypage des animaux d'élevage "". INRAE Productions Animales 27, n.º 3 (25 de agosto de 2014): 179–1890. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3065.

Texto completo da fonte
Resumo:
Avant-propos La demande mondiale en produits d’origine animale est en forte expansion1 et l’élevage est l’une des activités agricoles les plus fortement créatrices d’emploi et de valeur ajoutée, tant au niveau de la production et des services qu’elle utilise, que des filières de produits animaux. Mais dans le même temps, l’élevage doit faire face à des enjeux sociétaux qui nécessitent des évolutions importantes dans les modes de production : besoin de compétitivité encore accru, méthodes d’élevage contestées vis-à-vis des atteintes à l’environnement, du respect du bien-être animal et de l’usage des médicaments. Il s’agit de réfléchir ces défis au niveau européen et mondial. Produire plus, mieux et à moindre coût doit contribuer à assurer la sécurité alimentaire mondiale et à répondre aux attentes européennes en termes de systèmes de production et de marchés très diversifiés. L’Europe a ici une responsabilité toute particulière car si elle ne peut pas nourrir le monde, il est de sa responsabilité, en tant que région où la demande sociale est aujourd’hui la plus élevée, de montrer comment concilier production et environnement. Outre les innovations et les adaptations des systèmes d’élevage (cf. Numéro spécial de la revue « Quelles innovations pour quels systèmes d’élevage ? », Ingrand S., Baumont R. (Eds). INRA Prod. Anim., 27, 2), les réponses passent aussi par la recherche d’animaux qui soient d’une part, plus efficients pour transformer leur ration et plus faciles à élever dans une large gamme de conditions climatiques et de systèmes d’élevage et, d’autre part, adaptables face à des aléas climatiques, sanitaires ou économiques tout en préservant la santé, le bien-être et la qualité des produits. Par le passé, la recherche de la maximisation des performances de production (ex : vitesse de croissance, quantité de lait par lactation…) a conduit à des animaux de plus en plus spécialisés. Dans la plupart des filières, cette maximisation s’est accompagnée d’une dégradation des autres aptitudes d’élevage, aujourd’hui source d’inefficience en élevage. La recherche d’une plus grande robustesse (définie comme la capacité pour un animal d’exprimer son potentiel de production dans une large gamme d’environnements sans pour autant compromettre sa santé et son bien-être) devient une priorité. Dans le même temps,l’accès à des techniques d’exploration fonctionnelle toujours plus performantes, les innovations en cours d’appropriation ou à venir dans le domaine de la génomique ouvrent des perspectives d’investigation nouvelles plus précises. Dans ce contexte d’évolution des demandes et des possibilités d’investigation, les projets de recherche en sciences animales doivent être plus systémiques, prédictifs et permettre d’établir des relations fonctionnelles de plus en plus fines entre le phénotype des animaux, leur génotype et le milieu dans lequel il s'exprime. Face au développement spectaculaire des connaissances sur le génome, il y a un manque criant de connaissances sur l’expression des phénotypes, connaissances qui devraient permettre de répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : i) une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience de la production et la robustesse des génotypes, et ii) un élevage de précision qui valorise la variabilité individuelle des animaux pour gagner en efficience et en résilience à l’échelle du troupeau, ou pour améliorer la conduite des animaux d’un génotype donné. En effet, d’un coté les progrès réalisés par la sélection génomique permettent aujourd’hui de repenser les critères de sélection et de les diversifier tout en raccourcissant les délais entre la définition des objectifs et l’amélioration effective des cheptels, mais cette sélection entraine de nouveaux besoins de phénotypage car elle nécessite la caractérisation d’unepopulation de référence. D’un autre coté, la connaissance plus fine de l’animal associée aux technologies en émergence de l’élevage de précision permettra de mieux piloter la conduite d’élevage pour améliorer l’efficience de l’alimentation ou de la reproduction par une approche individuelle à l’animal, ainsi que par la production d’alertes à destination de l’éleveur pour un diagnostic précoce des troubles permettant d’anticiper les ajustements requis. Le phénotypage est ainsi l’un des principaux défis que doit relever les recherches en production animale et a été reconnu comme tel par l’INRA. Deux types de phénotypage peuvent être envisagés : le phénotypage des caractères d’intérêt socio-économique et le phénotypage de caractères plus élémentaires. Les phénotypes d’intérêt socio-économique constituent la finalité recherchée. Ils résultent de mécanismes faisant appel à des régulations complexes, ils sont d’autant plus onéreux à mesurer qu’il s’agit de critères zootechniques qui doivent être observés sur des pas de temps longs. La recherche de phénotypes plus élémentaires et plus proches du mécanisme causal rend plus facile l’identification des gènes responsables. Ce phénotypage fin implique de réaliser des mesures particulièrement approfondies et à des échelles élémentaires (au niveau moléculaire, cellulaire, tissulaire…) des caractéristiques biologiques de l’animal qui expliquent un phénotype complexe observé à l’échelle de l’animal. Le phénotypage à haut débit signifie qu’une méthode de mesure des phénotypes fiable, automatisable et rapide est établie de sorte que le processus de mesure permette de générer un grand nombre de données dans un laps de temps court. Le haut débit peut s’appliquer au phénotypage fin tout comme à celui des caractères d’intérêt zootechnique. Les contributions significatives qui pourront être attendues d’un phénotypage animal fin et à haut débit concernent la biologie prédictive, à savoir la prédiction des performances à partir de caractères simples observables précocement, nécessaire notamment à la gestion des produits, à la conduite de l’élevage et à la sélection animale. Ce dossier propose le fruit d’une réflexion globale des chercheurs de l’INRA sur les perspectives qu’offre le phénotypage des animaux pour répondre aux enjeux des productions animales. Cette réflexion a eu pour objectif de définir les grands enjeux de connaissance autour du phénotypage animal et de faire émerger les questions de recherches prioritaires, transversales ou spécifiques aux différentes filières animales ainsi que les verrous techniques qui sont soulevés. Cette réflexion a été conduite par un groupe de douze chercheurs2 des départements de « Génétique Animale », « Physiologie Animale et Systèmes d’Elevage » et « Santé Animale » travaillant dans des disciplines et sur des espèces variées, missionné par la Direction Scientifique Agriculture de l’INRA. La réflexion de ce groupe s’est appuyée sur celle d’un collectif plus large de chercheurs INRA travaillant sur les animaux d’élevage par le biais d’un séminaire organisé en mai 2013 ainsi que par la rédaction partagée des articles de ce dossier. L’amélioration de la robustesse des animaux d’élevage étant un objectif central, le premier article de ce dossier développe une approche systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales pour la sélection et pour la conduite de l’élevage. Les recherches sur le phénotypage doivent être accompagnées d’une ontologie générique c’est-à-dire d’une représentation et d’un langage communs pour partager les données et les connaissances, ainsi que l’explicite le second article de ce numéro. L’objet des trois synthèses suivantes est de mettre en perspective les fronts de science (phénotypage du microbiote intestinal), les enjeux de connaissance et les verrous techniques encore à lever pour permettre des productions animales de qualité (phénotypage de la qualité des produits) et en quantité (phénotypage de l’efficacité alimentaire), à moindres coûts économique et environnemental. 1 Selon la FAO et l’OCDE, la progression de la consommation de protéines d’origine animale sur la planète devrait se poursuivre au rythme de + 2 à + 3%/an au cours de cette décennie. Sur la période 2000-2050, la consommation totale des viandes devrait progresser de l’ordre de + 70% pour une population en augmentation de + 20%. Selon les mêmes sources et pour la même période la consommation de lait et produits laitiers dans les pays émergents devrait passer de 45 à 78 kg par habitant.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Aurifeille, Jacques-Marie. "La segmentation moyens-fins : une démarche connexionniste appliquée aux comportements d’achat alimentaire". Économies et Sociétés. Série Développement agroalimentaire 31, n.º 923 (1997): 117–46. http://dx.doi.org/10.3406/esag.1997.1718.

Texto completo da fonte
Resumo:
Une procédure connexionniste de typologie prédictive est proposée pour analyser les processus moyens-fins des consommateurs. Elle est appliquée au choix des catégories de légumes (frais en vrac, frais préparés, surgelés, en conserve ) à partir d’une enquête téléphonique et d’une enquête classique par entretien face-à-face. Les résultats obtenus sont encourageants, tant sur le plan de la mise en œuvre (indices de prédictivité, stabilité et indépendance des classes) que sur celui des concepts (mesure de l’importance des chaînes moyens-fins simultanées et de leurs interactions).
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

St-Onge, Christina, Daniel J. Côté e Carlos Brailovsky. "Utilisation du Mini Entrevues Multiples en contexte francophone". Mesure et évaluation en éducation 32, n.º 2 (12 de maio de 2014): 49–69. http://dx.doi.org/10.7202/1024954ar.

Texto completo da fonte
Resumo:
Le succès académique antérieur s’avère le meilleur prédicteur du succès académique en médecine, mais cet indicateur n’informe en rien quant aux habiletés non cognitives des candidats. Le Mini Entrevues Multiples (MEM), une mesure d’habiletés non cognitives, démontre une bonne fidélité et validité prédictive. L’objectif de la présente étude était de mesurer la fidélité du MEM UdeS élaboré et administré dans le cadre du processus de sélection au doctorat en médecine de l’Université de Sherbrooke. Les résultats observés démontrent la fidélité de l’outil, et ce, dans un contexte d’administration différent des études précédentes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Moingeon, Philippe, Christiane Garbay, Muriel Dahan, Irène Fermont, Ali Benmakhlouf, Alain Gouyette, Pierre Poitou e Alain Saint-Pierre. "L’intelligence artificielle, une révolution dans le développement des médicaments". médecine/sciences 40, n.º 4 (abril de 2024): 369–76. http://dx.doi.org/10.1051/medsci/2024028.

Texto completo da fonte
Resumo:
L’intelligence artificielle (IA) et l’apprentissage automatique produisent des modèles prédictifs qui aident à la prise de décisions dans le processus de découverte de nouveaux médicaments. Cette modélisation par ordinateur permet de représenter l’hétérogénéité d’une maladie, d’identifier des cibles thérapeutiques, de concevoir et optimiser des candidats-médicaments et d’évaluer ces médicaments sur des patients virtuels, ou des jumeaux numériques. En facilitant à la fois une connaissance détaillée des caractéristiques des patients et en prédisant les propriétés de multiples médicaments possibles, l’IA permet l’émergence d’une médecine de précision « computationnelle » offrant des traitements parfaitement adaptés aux spécificités des patients.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Monteil, Jean-Marc. "En France, le besoin d’une culture partagée de la production de données". Revue internationale d'éducation de Sèvres 96 (2024): 59–69. http://dx.doi.org/10.4000/12fsq.

Texto completo da fonte
Resumo:
Les données et les informations qui découlent de leur traitement, pour éclairer, voire définir, des orientations éducatives soulèvent la redoutable question de leur qualité, de leur fiabilité et de leur valeur prédictive au regard de vertus supposées enrichir les gestes pédagogiques ou éducatifs des enseignants. Si l’on veut tenir certains résultats de la science comme un soutien organisateur pour les pratiques professionnelles, il convient d’accéder aux processus qui en ont permis la production. Cet article invite, pour la formation initiale comme continue des enseignants en France, à un adossement plus résolu à la recherche et à la diffusion de ses méthodes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

SAIDI, Yahia, e Lakhdar LAROUS. "La loi de Benford comme outil de détection des fraudes et ‎ ‎ des manipulations comptables - étude de cas ‎". Dirassat Journal Economic Issue 9, n.º 2 (1 de junho de 2018): 35–48. http://dx.doi.org/10.34118/djei.v9i2.181.

Texto completo da fonte
Resumo:
Dans la dernière décennie, les spécialistes d’audit et de comptabilité ont accordé une grande importance au sujet de fraude à l’information comptable et financière ainsi qu’aux approches pour y faire face vu l’accroissement du phénomène, la progression de ses méthodes et la résistance de ses techniques aux moyens classiques de détection et de prévention. Les autorités professionnelles et les spécialistes ont dû, par conséquence, trouver des moyens modernes de détection et mettre à jour les classiques à l’instar des programmes d’audit spécialisés dans l’analyse, la recherche et la détection et la loi de Benford comme outil de détection prédictive d’erreur et de fraude à l’information comptable et financière. La loi de Benford a été essayée sur un échantillon d’opérations comptables pour le compte des clients de l’Algérienne des Eaux – unité de Laghouat, pendant six mois de l’année 2015 ayant pour but de savoir la capacité de détection de ladite loi. Après examen des résultats, il s’est avéré que les données comptables et financières de l’Algérienne des Eaux sont bel et bien compatibles avec la loi de Benford et que les anomalies entre la division de l’échantillon et celle de la loi de Benford n’ont pas de signification statistique. Les résultats ont également confirmé la possibilité d’utilisation de la loi de Benford dans le processus de détection prédictive d’erreur et de fraude à l’information comptable et financière.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Ferguson, Yale H., e James N. Rosenau. "De la superpuissance avant et après le 11 septembre 2001 : Une perspective post internationale". Études internationales 35, n.º 4 (16 de fevereiro de 2005): 623–39. http://dx.doi.org/10.7202/010484ar.

Texto completo da fonte
Resumo:
Résumé Contrairement aux prédictions alarmistes, le 11 septembre n’a pas fondamentalement changé les structures et processus de base de la politique mondiale tels que décrits par la perspective post internationale. Bien que l’avènement de la globalisation du terrorisme, d’individus ou groupes prêts à donner leur vie en ravageant les populations civiles, aussi bien en dehors qu’à l’intérieur de conflits locaux et à travers les frontières, puisse être classé comme un changement paradigmatique de grande ampleur comparable à la révolution nucléaire, les turbulences qui en résultent n’ont que peu de rapport avec l’anarchie entre États, en ce qu’elles sont plutôt les manifestations de la capacité des sphères d’autorité et des entités politiques non gouvernementales à venir défier les États. Dans cette perspective, la superpuissance américaine telle que conçue dans la perspective réaliste est peu susceptible de venir apporter une gouvernance capable de répondre aux exigences des nouveaux désordres.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Osaiyuwu, O. H., K. O. Idahor e A. A. Akintan. "Factor analysis and body dimensions of the Japanese quail (Coturnix Coturnix Japonica)". Nigerian Journal of Animal Production 49, n.º 5 (26 de maio de 2023): 1–14. http://dx.doi.org/10.51791/njap.v49i5.3775.

Texto completo da fonte
Resumo:
Morphometric variation can be effectively measured within and between populations and used as a basis for characterization of different livestock types. The study was aimed at contributing to the characterization process of the Japanese quail (mottled brown and white) through quantitative assessment. Zoometrical data on body weight and 11 body measurement were taken on 747 mottled brown quail and 272 white quail from six different farms around Ibadan in the Southwest Nigeria. Descriptive statistics showed that average body weight of Japanese quail reared in Southwest Nigeria were 158.72±2.03, 157.24±1.31, 140.6 ±1.39, and 136.27±2.7g for mottled brown female, brown male, white female and white male, respectively. Sexual dimorphism was observed in all the traits with higher values recorded for the females. Significant correlation (P<0.001) was observed between body weight and body measurements. The best correlation was obtained between body weight and thigh length r = 0.76 and 0.70 for mottled brown quail and white respectively. Factor solution from the principal component analysis, with varimax rotation of the transformation matrix showed three factors were identified in each of the genetic group (total variance of first principal component = 27.86, 30.16, 31.88 and 38.85 for mottled brown male, mottled female, white male, white female quail, respectively). In the two strains of Japanese quail, PC1 had the largest share of the total variance and correlated highly with body weight, breast length, wing length, thigh length and shank length. The PC1 could be used to describe the generalised form of quail. PC2 was orthogonal to PC1 and loaded heavily on breast girth and neck length. Data was also subjected to linear and stepwise regression. More reliable prediction was obtained from stepwise regression, R² was highest with breast girth R²=0.71 and breast length R²=0.81 for brown and white quail, respectively. The weight of Japanese quail is linearly related to body measurements. The high, positive correlation between body weight and zoometric body measurements indicates that these easily measured parts can be used as criteria for assessment and selection of body weight. La variation morphométrique peut être efficacement mesurée au sein et entre les populations et utilisée comme base pour la caractérisation des différents types de bétail. L’étude visait à contribuer au processus de caractérisation de la caille japonaise (tachetée de brun et de blanc) par une évaluation quantitative. Des données zoométriques sur le poids corporel et 11 mesures corporelles ont été prises sur 747 cailles brunes tachetées et 272 cailles blanches de six fermes différentes autour d’Ibadan dans le sud-ouest du Nigéria. Les statistiques descriptives ont montré que le poids corporel moyen des cailles japonaises élevées dans le sud-ouest du Nigéria était de 158,72 ± 2,03, 157,24 ± 1,31, 140,6 ± 1,39 et 136,27 ± 2,7g pour la femelle brune tachetée, le mâle brun, la femelle blanche et le mâle blanc, respectivement. Un dimorphisme sexuel a été observé dans tous les traits avec des valeurs plus élevées enregistrées pour les femelles. Une corrélation significative (P<0,001) a été observée entre le poids corporel et les mesures corporelles. La meilleure corrélation a été obtenue entre le poids corporel et la longueur des cuisses r = 0,76 et 0,70 pour la caille brune tachetée et la caille blanche respectivement. La solution factorielle de l’analyse en composantes principales, avec rotation varimax de la matrice de transformation, a montré que trois facteurs ont été identifiés dans chacun des groupes génétiques (variance totale de la première composante principale = 27,86, 30,16, 31,88 et 38,85 pour le mâle brun tacheté, la femelle tachetée, le blanc mâle, cailles blanches femelles, respectivement). Dans les deux souches de cailles japonaises, PC1 avait la plus grande part de la variance totale et était fortement corrélé avec le poids corporel, la longueur de la poitrine, la longueur des ailes, la longueur des cuisses et la longueur du jarret. Le PC1 pourrait être utilisé pour décrire la forme généralisée de la caille. PC2 était orthogonal à PC1 et fortement chargé sur la circonférence de la poitrine et la longueur du cou. Les données ont également été soumises à une régression linéaire et pas à pas. Une prédiction plus fiable a été obtenue à partir de la régression pas à pas, le R² était le plus élevé avec le tour de poitrine R² = 0,71 et la longueur de poitrine R² = 0,81 pour les cailles brunes et blanches, respectivement. Le poids de la caille japonaise est linéairement lié aux mensurations. La corrélation élevée et positive entre le poids corporel et les mensurations zoométriques indique que ces parties facilement mesurables peuvent être utilisées comme critères d’évaluation et de sélection du poids corporel.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Domenech, P. "La décision, cette inconnue…". European Psychiatry 30, S2 (novembro de 2015): S51. http://dx.doi.org/10.1016/j.eurpsy.2015.09.145.

Texto completo da fonte
Resumo:
Qu’avons nous appris de l’architecture fonctionnelle des processus de prise de décision dans le cerveau humain grâce aux neurosciences computationnelles ? Dans un premier temps, nous verrons comment les modèles de diffusion ont permis de proposer des algorithmes de décision capable d’expliquer les relations complexes entre proportion de choix et temps de décision observés lors de décision simple, et de faire des prédictions testables sur l’activité cérébrale des régions impliquées dans ces processus cognitifs. En prenant l’exemple de choix économiques simples, nous illustrerons l’intérêt de ce cadre mathématique pour comprendre comment différentes régions cérébrales peuvent interagir pour produire des décisions reflétant nos préférences subjectives. Finalement, nous discuterons autour d’un modèle mathématique capable de détecter les changements d’environnements pour interrompre les tâches en cours et déclencher des phases actives d’exploration afin d’illustrer la façon dont les modèles computationnels permettent de détecter des transitions brutales dans les stratégies comportementales et de prédire avec précision l’activité cérébrale dans le cortex préfrontal humain. Nous conclurons sur l’importance du cadre théorique de l’inférence Bayesienne et, en particulier, des notions de confiance et d’incertitude pour caractériser les algorithmes utilisés par le cerveau humain pour choisir.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia