Journal articles on the topic 'Algorithmes de prédiction'

To see the other types of publications on this topic, follow the link: Algorithmes de prédiction.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 44 journal articles for your research on the topic 'Algorithmes de prédiction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Lazaro, Christophe. "Le pouvoir « divinatoire » des algorithmes." Anthropologie et Sociétés 42, no. 2-3 (October 5, 2018): 127–50. http://dx.doi.org/10.7202/1052640ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
À travers le développement spectaculaire de systèmes algorithmiques capables de collecter, d’analyser, de traiter des quantités massives de données, l’ère desBig datasemble avoir conféré à l’homme un nouvel outil de prédiction lui permettant d’optimiser les processus décisionnels, d’anticiper les risques et de gouverner les conduites. Les applications, développées notamment dans le domaine de la sécurité, du marketing ou du divertissement, intégrant des algorithmes auto-apprenants, rendent désormais possibles la prédiction et surtout la préemption du futur. Dans cette contribution, nous souhaitons interroger le pouvoir prédictif des algorithmes, à la lumière des pratiques divinatoires de l’Antiquité gréco-latine. À cette fin, nous déployons un double questionnement, à la fois épistémologique et ontologique, en nous inspirant du traité de Cicéron sur la divination : que sont les algorithmes, et quelle est la singularité de leur logique corrélative ? Que nous font voir les algorithmes et quelles sont les nouvelles modalités de production du savoir qu’ils impliquent ?
2

HARINAIVO, A., H. HAUDUC, and I. TAKACS. "Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle." Techniques Sciences Méthodes 3 (March 20, 2023): 33–42. http://dx.doi.org/10.36904/202303033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
3

Beaudouin, Valérie, and Winston Maxwell. "La prédiction du risque en justice pénale aux états-unis : l’affaire propublica-compas." Réseaux N° 240, no. 4 (September 21, 2023): 71–109. http://dx.doi.org/10.3917/res.240.0071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un article publié par le média Pro Publica en 2016 considère que le logiciel Compas, utilisé aux États-Unis pour la prédiction de la récidive, porte préjudice à la population noire : « It’s biased against blacks ». La publication crée une onde de choc dans l’espace public et alimente les débats sur l’équité des algorithmes et sur le bien-fondé de ces outils de prédiction du risque. Ces débats étaient jusque-là confinés dans des sphères de spécialistes. En partant de l’affaire ProPublica-Compas, nous avons exploré les différents embranchements de la controverse dans l’arène des « data sciences » et dans celle du monde de la justice. Si, dans l’espace médiatique, l’affaire Compas illustre les dérives liées aux algorithmes et vient renforcer les inquiétudes autour de l’intelligence artificielle (peur du remplacement, du renforcement des inégalités et de l’opacité), dans le monde académique deux arènes s’emparent de l’affaire. Dans l’arène des data sciences, les chercheurs discutent des critères d’équité et de leur incompatibilité, montrant à quel point la traduction d’un principe moral en indicateurs statistiques est problématique. Ils débattent également de la supériorité supposée de la machine sur l’homme dans les tâches de prédiction. Dans l’arène de la justice pénale, espace beaucoup plus hétérogène, l’affaire ProPublica-Compas renforce la prise de conscience qu’il est nécessaire de mieux évaluer les outils avant de les utiliser, de comprendre comment les juges s’approprient ces outils en contexte et amène les ONG qui défendent les prisonniers et les législateurs à changer de posture par rapport à ces outils de prédiction. Tandis que l’arène des data sciences fonctionne dans un entre-soi disciplinaire, focalisé sur les données et les algorithmes hors contexte, dans l’arène juridique, qui assemble des acteurs hétérogènes, la question de l’inscription des outils dans la pratique professionnelle occupe une place centrale.
4

Saccocio, Christèle, Guillaume Dumain, and Olivier Langeron. "Ventilation au masque et intubation difficiles chez l’adulte : de la prédiction à la décision grâce aux algorithmes." Oxymag 34, no. 177 (March 2021): 8–15. http://dx.doi.org/10.1016/j.oxy.2021.03.003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Bourkhime, H., N. Qarmiche, N. Bahra, M. Omari, M. Berraho, N. Tachfouti, S. El Fakir, and N. Otmani. "P36 - La prédiction de la dépression chez les Marocains atteints de maladies respiratoires chroniques - Analyse comparative des algorithmes d'apprentissage automatique." Journal of Epidemiology and Population Health 72 (May 2024): 202476. http://dx.doi.org/10.1016/j.jeph.2024.202476.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

De Oliveira, H., M. Prodel, and A. Vainchtock. "Prédiction du coût hospitalier annuel pour des patients vivant avec le VIH : comparaison de 10 algorithmes de « Machine Learning » sur une cohorte identifiée dans les données PMSI." Revue d'Épidémiologie et de Santé Publique 66 (March 2018): S27. http://dx.doi.org/10.1016/j.respe.2018.01.057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

K, Ravikiran, P. Gopala Krishna, N. Rajashekhar, K. Sandeep, Y. Saeed Hazim, Uma Reddy, Rajeev Sobti, and Ashwani Kumar. "Short-term rainfall prédiction using prédictive analytics: A case study in Telangana." E3S Web of Conferences 507 (2024): 01072. http://dx.doi.org/10.1051/e3sconf/202450701072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Rainfall forecasting is critical because heavy rains can bring a full of tragedies. This prediction aids people in requiring preventive steps, and it should be correct. There are two types of rainfall forecasting: short-term forecasting and long-term forecasting. Predictions are typically correct for short-term, but creating a model for future rainfall prediction is the most difficult task. Because it is strongly tied to economy and human lives, heavy precipitation forecast could be a severe disadvantage for natural science departments. It’s the cause of natural disasters like floods and droughts that affect people all around the world every year. For countries like India, where agriculture is the primary source of income, the accuracy of rainfall estimates is critical. Regression may be used in the prediction of precipitation utilizing machine learning approaches. The goal of this work is to provide non-experts with easy access to the techniques and approaches used in the field of precipitation prediction, as well as a comparison of the various machine learning algorithms.
8

Cournoyer, A., V. Langlois-Carbonneau, R. Daoust, and J. Chauny. "LO29: Création dune règle de décision clinique pour le diagnostic dun syndrome aortique aigu avec les outils dintelligence artificielle : phase initiale de définition des attributs communs aux patients sans syndrome aortique aigu chez une population à risque." CJEM 20, S1 (May 2018): S16—S17. http://dx.doi.org/10.1017/cem.2018.91.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction: Les outils de prédiction disponibles (score clinique, ratio des neutrophiles sur lymphocytes et dosage des D-dimères) dans le diagnostic du syndrome aortique aigu (SAA) demeurent imparfaits. Dans ce contexte, avec lobjectif de développer une règle de décision clinique pour le diagnostic du SAA, la présente étude visait à définir un ensemble de variables discriminantes chez les patients souffrant ou non dun SAA en utilisant les outils dintelligence artificielle. Methods: À partir de lensemble des données cliniques disponibles chez les patients investigués pour douleur thoracique au département durgence avec une angiographie par tomodensitométrie (angioCT) visant à éliminer un SAA entre 2008 et 2014, un programme dapprentissage a été chargé de construire un arbre de décision (Clustering And Regression Tree) identifiant les patients ne souffrant pas dun SAA. La variable dintérêt était labsence de SAA et 23 attributs ont été testés. Le diagnostic de SAA était établi avec les résultats de langioCT. Des échantillons aléatoires de 70% de la population étudiée ont été testés de façon récursive (maximum de 100 itérations) pour construire larbre de décision. Six algorithmes dapprentissage (Reg Tree, LR, KNN, Naive B, Random Forest et CN2) ont été comparés et loptimisation du gain dinformation a été mesurée par les techniques de Gain Ratio et de Gini. Results: Un total de 198 patients (99 hommes et 99 femmes) dun âge moyen de 63 ans (±16) ont été inclus dans létude, parmi lesquels 26 (13%) souffraient dun SAA. Trois attributs ou regroupements dattributs ont permis de construire un arbre de décision permettant didentifier 114 patients sur 198 (57,6%) ayant une très faible probabilité de SAA (sensibilité visée de 100%). La sensibilité et spécificité de larbre de décision clinique était respectivement de 100% (intervalle de confiance [IC] 95% 86,7-100,0) et 70,4% (IC 95% 62,7-77,3). Les attributs en question étaient labsence de tout facteur de risque (e.g. syndrome de Marfan, chirurgie aortique ou valvulaire, histoire familiale), les signes vitaux (tension artérielle systolique, pouls et choc index) et les D-dimères. Le seuil de D-dimères utilisé pouvait varier entre 1114 et 1211 mcg/L selon lhémodynamie et la présence de facteur de risque. Les attributs suivants nétaient pas discriminants : le sexe, un antécédent de diabète, dhypertension artérielle ou de dyslipidémie, le tabagisme, avoir un déficit de perfusion, une différence de tension artérielle entre les deux bras ou un souffle dinsuffisance aortique et la formule sanguine. Conclusion: Les attributs les plus discriminants pour le SAA sont les facteurs à risque, lhémodynamie et les D-dimères. Une étude prospective multicentrique devrait être réalisé afin de développer une règle de décision clinique afin didentifier les patients à très bas risque de SAA à partir de ces attributs.
9

Im, Virginie, and Michel Briex. "Médecine prédictive, deep learning, algorithmes et accouchement." Spirale N°93, no. 1 (2020): 204. http://dx.doi.org/10.3917/spi.093.0204.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Phillips, Susan P., Sheryl Spithoff, and Amber Simpson. "L’intelligence artificielle et les algorithmes prédictifs en médecine." Canadian Family Physician 68, no. 8 (August 2022): e230-e233. http://dx.doi.org/10.46747/cfp.6808e230.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Mouriesse, Élise. "Quelle transparence pour les algorithmes de justice prédictive ?" Archives de philosophie du droit Tome 60, no. 1 (May 20, 2018): 125–45. http://dx.doi.org/10.3917/apd.601.0140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Rouvière, Frédéric. "La justice prédictive : peut-on réduire le droit en algorithmes ?" Pouvoirs N° 178, no. 3 (September 2, 2021): 97–107. http://dx.doi.org/10.3917/pouv.178.0097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Lacour, Stéphanie, and Daniela Piana. "Faites entrer les algorithmes ! Regards critiques sur la « justice prédictive »." Cités N°80, no. 4 (2019): 47. http://dx.doi.org/10.3917/cite.080.0047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

J.B, Koto, T. R. Ramahefy, and S. Randrianja. "Détection Des Anomalies Du Donnée De Démographie Par Région A Madagascar Par La Méthode Iforest." International Journal of Progressive Sciences and Technologies 34, no. 1 (September 27, 2022): 367. http://dx.doi.org/10.52155/ijpsat.v34.1.4578.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La détection des anomalies a connu dernièrement une grande attention, tant au niveau académique qu’au niveau industriel. La prédiction automatique pour la détection d’anomalie s’applique également aux données démographies à Madagascar. Une approche alternative qui se montre prometteuse, est l’utilisation de la méthode des forêts d’isolation (iForest).Cet article nous démontre que la détection des anomalies peut être appliquer sur tous les différents domaines, comme sur les données de la démographie par rapport au nombre de bureau de l’état civil à Madagascar. Les résultats de l’algorithme iForest présentent des réponses qui sont difficiles à l’interpréter. Il est toujours difficile de savoir la contribution de chaque variable dans cet algorithme d’isolation et de comprendre pourquoi des observations particulières reçoivent un score plus élevé.
15

Hurault, Guillem, Jean François Stalder, Sophie Méry, Catherine Jean-Decoster, Gwendal Josse, and Reiko J. Tanaka. "Développement d’un algorithme de prédiction personnalisé de l’évolution de la sévérité de la dermatite atopique." Annales de Dermatologie et de Vénéréologie - FMC 1, no. 8 (December 2021): A350. http://dx.doi.org/10.1016/j.fander.2021.09.422.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Mollo, B., S. Ly, P. Dussart, and A. Tarantola. "Élaboration d’un algorithme prédictif de la rage chez les chiens mordeurs." Médecine et Maladies Infectieuses 47, no. 4 (June 2017): S2. http://dx.doi.org/10.1016/j.medmal.2017.03.012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Domenech, P. "La décision, cette inconnue…" European Psychiatry 30, S2 (November 2015): S51. http://dx.doi.org/10.1016/j.eurpsy.2015.09.145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Qu’avons nous appris de l’architecture fonctionnelle des processus de prise de décision dans le cerveau humain grâce aux neurosciences computationnelles ? Dans un premier temps, nous verrons comment les modèles de diffusion ont permis de proposer des algorithmes de décision capable d’expliquer les relations complexes entre proportion de choix et temps de décision observés lors de décision simple, et de faire des prédictions testables sur l’activité cérébrale des régions impliquées dans ces processus cognitifs. En prenant l’exemple de choix économiques simples, nous illustrerons l’intérêt de ce cadre mathématique pour comprendre comment différentes régions cérébrales peuvent interagir pour produire des décisions reflétant nos préférences subjectives. Finalement, nous discuterons autour d’un modèle mathématique capable de détecter les changements d’environnements pour interrompre les tâches en cours et déclencher des phases actives d’exploration afin d’illustrer la façon dont les modèles computationnels permettent de détecter des transitions brutales dans les stratégies comportementales et de prédire avec précision l’activité cérébrale dans le cortex préfrontal humain. Nous conclurons sur l’importance du cadre théorique de l’inférence Bayesienne et, en particulier, des notions de confiance et d’incertitude pour caractériser les algorithmes utilisés par le cerveau humain pour choisir.
18

D’Alessandro, Simone. "The predictable and disabling society: artificial intelligence and changing human agency." Sociétés 163, no. 1 (April 15, 2024): 73–84. http://dx.doi.org/10.3917/soc.163.0073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Peut-on parler d’intelligence, d’intentionnalité et d’agence lorsqu’on observe les interactions d’un agent artificiel orienté par des algorithmes ? Et comment l’interaction d’un agent artificiel modifie-t-elle l’agence de l’être humain ? Partant de la “théorie de l’exonération” postulée par l’anthropologie philosophique et l’intégrant à la théorie relationnelle, nous examinerons dans cette recherche les effets déterminés par l’interaction asymétrique entre l’être humain et l’algorithme. Ce dernier, pour être efficace en termes de résultats prédictifs, doit rendre l’environnement stable et le comportement humain prévisible. Mais une société prévisible est contre-productive et handicapante pour l’être humain sur le plan relationnel. L’être humain doit donc changer sa perspective relationnelle avec l’IA, en évaluant de manière réflexive non seulement les résultats positifs/négatifs, mais aussi les aspects facilitateurs/ incapacitants.
19

Filiol, Éric. "Les risques concernant l’utilisation des algorithmes dits prédictifs dans le domaine sensible de la justice." Archives de philosophie du droit Tome 60, no. 1 (May 20, 2018): 147–52. http://dx.doi.org/10.3917/apd.601.0162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Tu, K., T. Mitiku, H. Guo, D. S. Lee, and J. V. Tu. "Incidence de l’infarctus du myocarde et validation des données de facturation des médecins et des données d’hospitalisation à partir des dossiers médicaux électroniques." Maladies chroniques et blessures au Canada 30, no. 4 (September 2010): 148–54. http://dx.doi.org/10.24095/hpcdp.30.4.06f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Objectif La détection au sein d’une population des personnes qui ont subi un infarctus du myocarde ne repose actuellement que sur la liste des patients en phase aiguë se présentant à l’hôpital. Nous voulons déterminer si, en combinant les données de facturation des médecins aux données sur les congés d’hôpital, nous obtiendrions une meilleure détection. Méthodologie Nous avons utilisé comme échantillon de référence 969 patients adultes, choisis au hasard à partir de dossiers médicaux électroniques fournis par des médecins de première ligne en Ontario (Canada). Résultats Un algorithme fondé sur trois facturations de médecins au cours d’une période d’un an, dont au moins une provenait d’un spécialiste ou d’une consultation dans un centre hospitalier ou une salle d’urgence, et sur un dossier de congé d’hôpital a permis d’obtenir une sensibilité de 80,4 % (IC à 95 % : 69,5-91,3), une spécificité de 98,0 % (IC à 95 % : 97,19-8,9), une valeur prédictive positive de 69,5 % (IC à 95 % : 57,7-81,2), une valeur prédictive négative de 98,9 % (IC à 95 % : 98,2-99,6) et une valeur kappa de 0,73 (IC à 95 % : 0,63-0,83). Conclusion L’utilisation combinée des dossiers de congé d’hôpital et des données de facturation des médecins pourrait être la meilleure façon d’évaluer les tendances sur une longue période de la fréquence des infarctus du myocarde, car elle permet de détecter davantage de cas que la méthode fondée sur les seules données d’hospitalisation.
21

Marsault, Xavier, and Hong Minh-Chau Nguyen. "Les GANs : stimulateurs de créativité en phase d’idéation." SHS Web of Conferences 147 (2022): 06003. http://dx.doi.org/10.1051/shsconf/202214706003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Présentée dans le passé comme une approche visant à imiter l’intelligence biologique, l’adaptation et l’évolution dans la résolution de problèmes, l’intelligence artificielle (IA) mobilise massivement la communauté scientifique, et se redéfinit constamment dans ses ambitions, voire son essence même, surpassant les précédents modèles analytiques, prédictifs et génératifs en parallèle avec une constante et rapide évolution des équipements de calcul dédiés. Si l’IA excelle depuis quelques années dans la résolution de problèmes touchant de nombreux champs de l’activité humaine, ses applications aux domaines architectural et urbain n’en sont qu’aux balbutiements. Mais depuis 2017, l’IA générative est convoquée pour répondre à des objectifs non quantifiables ou difficilement mesurables (comme l’esthétique) et stimuler la créativité des concepteurs, et ses algorithmes, en particulier les GANs, commencent à être mis à profit pour l’aide à la conception en phase d’idéation architecturale.
22

Leroy, A., P. Thomas, and R. Jardri. "Activation cérébrale et récompense dans la schizophrénie : une méta-analyse des données d’IRM fonctionnelle." European Psychiatry 30, S2 (November 2015): S113. http://dx.doi.org/10.1016/j.eurpsy.2015.09.215.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
IntroductionLa dopamine a un rôle important dans la physiopathologie de la schizophrénie. L’hypothèse d’une « attribution aberrante de saillance » dans la schizophrénie pourrait expliquer les symptômes positifs et négatifs de la schizophrénie [1]. Les processus de récompense composent la saillance motivationnelle, dans laquelle la dopamine est impliquée [2]. Ce travail a pour objectif de faire une méta-analyse des études d’activation cérébrale en IRM fonctionnelles, comparant les patients schizophrènes aux sujets sains lors des tâches de récompense.MéthodesNous avons réalisé une recherche Pubmed, utilisant les mots clés : “schizophren* OR psychosis,” “fMRI OR PET,” “salienc* OR reward”. Au total, 171 études ont été sélectionnées, dont 12 comparant spécifiquement les patients schizophrènes et témoins durant les tâches de récompense. Elles comprenaient 480 sujets et 82 foci d’activation pour l’anticipation de récompense (30 foci), la réception de la récompense (14 foci) et l’erreur de prédiction (38 foci). La méthode utilisée est une estimation de la probabilité d’activation, réalisée à l’aide d’un algorithme implémenté sur le logiciel GingerALE Version 2.3.3 [3]. Nous avons utilisé un algorithme d’inférence par Cluster (p = 0,05) avec un p non corrigé pour le seuil de formation du cluster de 0,001.RésultatsLes patients schizophrènes montraient par rapport aux patients témoins un défaut d’activation dans l’aire tegmentale ventrale, le striatum ventral bilatéral, l’hippocampe, et le cortex cingulaire antérieur, lors de l’anticipation, la réception de récompense, et lors de l’erreur de prédiction.DiscussionLes patients schizophrènes montrent par rapport aux patients témoins un défaut d’activation dans les régions méso-limbiques impliquées dans les processus de récompense [4]. Cependant, le nombre de patient, notamment pour le contraste « réception de récompense » est encore faible.
23

Jauréguiberry, Francis. "L’individu hypermoderne face aux big data." Sociologie et sociétés 49, no. 2 (December 4, 2018): 33–58. http://dx.doi.org/10.7202/1054273ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les big data, le datamining et le profilage, avec l’ensemble des applications d’aide à l’action individuelle et collective qui en découle, suscitent à juste titre des inquiétudes en ce qui concerne, d’une part la protection de la vie privée dans un environnement capteur des faits et gestes de chacun, d’autre part les formes de gouvernance de plus en plus informées par des algorithmes prédictifs. Sans négliger ces dangers, une position presque inverse sera ici défendue sous forme d’hypothèse : loin d’entraîner le déclin de l’autonomie individuelle, de soi comme personne singulière capable de réflexivité et en position de faire des choix autonomes, la confrontation renouvelée à une image personnelle purement quantitative et utilitaire (profil) peut conduire à un ressaisissement de soi visant à ce que les choix soient non plus seulement guidés par une logique narcissique, utilitaire et quantitative, mais tout autant par des principes de cohérence individuelle, éthiques et moraux qui, in fine, donnent du sens à la vie.
24

Schultz, SE, DM Rothwell, Z. Chen, and K. Tu. "Repérage des cas d'insuffisance cardiaque congestive à partir de données administratives : étude de validation utilisant des dossiers de patients en soins primaires." Maladies chroniques et blessures au Canada 33, no. 3 (June 2013): 179–86. http://dx.doi.org/10.24095/hpcdp.33.3.06f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction En vue de déterminer si l'utilisation conjuguée des données administratives hospitalières et des factures présentées par les médecins au titre des soins ambulatoires pouvait permettre de repérer avec exactitude les patients souffrant d'insuffisance cardiaque congestive (ICC), nous avons mis à l'essai neuf algorithmes pour repérer à partir de données administratives les personnes souffrant d'ICC. Méthodologie La cohorte de validation par rapport à laquelle les essais ont été effectués combinait des données provenant d'un échantillon aléatoire de patients adultes inscrits dans la base de données EMRALD de dossiers médicaux électroniques des médecins de premier recours en Ontario, au Canada, et des données recueillies en 2004-2005 à partir d'un échantillon aléatoire de patients en soins primaires pour une étude sur l'hypertension. On a évalué la sensibilité, la spécificité, la valeur prédictive positive, l'aire sous la courbe ROC et la combinaison des rapports de vraisemblance positif et négatif des algorithmes. Résultats Nous avons constaté qu'un dossier d'hospitalisation ou de facturation de médecin suivi d'un second dossier provenant de l'une ou l'autre de ces sources dans la même année produisait les meilleurs résultats, avec une sensibilité de 84,8 % et une spécificité de 97,0 %. Conclusion La prévalence de l'ICC dans la population peut être mesurée avec exactitude à partir de données administratives issues de l'hospitalisation et des soins ambulatoires.
25

Hajek, Petr, and Lubica Hikkerova. "L’avantage de l’intelligence artificielle et de la prise en compte du sentiment des investisseurs dans la prévision des prix du pétrole en période de crise." Management & Avenir N° 137, no. 5 (October 30, 2023): 113–35. http://dx.doi.org/10.3917/mav.137.0113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Jusqu’à présent la littérature s’est intéressée au pouvoir explicatif du sentiment des investisseurs sur le prix des actifs, mais pas de sa capacité à prévoir les prix. Cet article s’appuie sur l’intelligence artificielle, et plus spécifiquement sur quatre méthodes d’apprentissage automatique (machine learning) de pointe, issues de la littérature, pour prévoir le prix du pétrole brut WTI à l’aide d’un indice de sentiment avec une attention particulière sur la crise de Covid-19. En effet, les périodes de crise, en raison des niveaux importants de volatilité des prix, limitent en général les capacités de prévision des modèles économétriques. Les résultats empiriques démontrent les performances en termes de prévisions des quatre algorithmes d’apprentissage automatique utilisés, mais cette fois dans un contexte plus large car nous avons également obtenus de bonnes performances de prévisions du prix du pétrole pour des situations de crise. Ils suggèrent également que l’effet significatif du sentiment basé sur les nouvelles sur la performance prédictive de nos modèles est particulièrement fort pendant cette période de Covid-19, tout comme il l’était pendant l’éclatement de la bulle Internet.
26

Pégny, Maël. "Revue de l'équité algorithmique." Lato Sensu: Revue de la Société de philosophie des sciences 10, no. 1 (December 15, 2023): 93–105. http://dx.doi.org/10.20416/lsrsps.v10i1.7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article présente un état de l'art critique du sous-champ de l'éthique de l'Intelligence Artificielle nommé "équité algorithmique". Il se concentre en particulier sur un objet récent, mais faisant objet d'une activité intense, à savoir les critières statistiques de l'équité algorithmique. Il s'agit de critères permettant de déterminer si un algorithme ou modèle prédictif de ML ne présente pas de biais défavorable à l'égard d'une population donnée en examinant les caractéristiques statistiques de son comportement entrées-sortie. Nous commençons par présenter les diverses définitions au centre des conversations récentes, ainsi qu'un résultat crucial d'impossibilité d'optimisation simultanée de toutes ces métriques, nommé "résultat d'incompatibilité." Nous discutons ensuite les leçons philosophiques à tirer de cette pluralité de définitions et du résultat d'incompatibilité. Nous finissons par une discussion critique portant sur les difficultés provenant de la représentation par des variables mathématiques de réalités sociales complexes comme l'appartenance identitaire à une population donnée, ou la caractérisation d'un discours comme discours de haine.
27

Johns, E., J. Godet, A. Alkanj, M. Beck, L. Dal Mas, B. Gourieux, E. Sauleau, and B. Michel. "L’intelligence artificielle au service de la pharmacie clinique – Construction d’un algorithme prédictif d’aide à l’expertise pharmaceutique des prescriptions." Le Pharmacien Clinicien 57, no. 4 (December 2022): e27. http://dx.doi.org/10.1016/j.phacli.2022.10.411.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

O'Donnell, Siobhan, Sarah Palmeter, Meghan Laverty, and Claudia Lagacé. "Exactitude des algorithmes des bases de données administratives pour la détermination des cas de trouble du spectre de l’autisme, de trouble du déficit de l’attention/hyperactivité et de trouble du spectre de l’alcoolisation fœtale : revue systématique." Promotion de la santé et prévention des maladies chroniques au Canada 42, no. 9 (September 2022): 401–33. http://dx.doi.org/10.24095/hpcdp.42.9.01f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction L'objectif de cette revue systématique était d'évaluer la validité des algorithmes des bases de données administratives utilisés pour repérer les cas de trouble du spectre de l'autisme (TSA), de trouble du déficit de l'attention/hyperactivité (TDAH) et de trouble du spectre de l'alcoolisation fœtale (TSAF). Méthodologie L'équipe de recherche a interrogé les systèmes MEDLINE, Embase, Global Health et PsycInfo afin de trouver des études, publiées en anglais ou en français entre 1995 et 2021, qui valident des algorithmes servant à recenser les cas de TSA, de TDAH et de TSAF dans les bases de données administratives. L'équipe de recherche a également consulté la littérature grise et les listes de références des études incluses. Deux évaluatrices ont procédé, de manière indépendante, à la sélection de la littérature, à l'extraction de l'information pertinente, à l'évaluation de la qualité des rapports, au risque de biais et à l'applicabilité et elles ont réalisé une synthèse qualitative des données probantes. PROSPERO CRD42019146941. Résultats Parmi les 48 articles évalués en texte intégral, 14 ont été inclus dans la revue. Aucune étude n'a été trouvée pour le TSAF. Malgré les sources de biais possibles et la grande hétérogénéité des études, les résultats donnent à penser que l'augmentation du nombre de codes de diagnostic de TSA que requiert une seule source de données augmente la spécificité et la valeur prédictive positive au détriment de la sensibilité. Les algorithmes les plus performants pour l'identification des cas de TSA reposent sur une combinaison de sources de données, la base de données sur les demandes de remboursement des médecins étant la meilleure source. Une étude a révélé que les données sur l'éducation pourraient améliorer l'identification des cas de TSA (sensibilité accrue) chez les enfants d'âge scolaire lorsqu'elles sont combinées aux données sur les demandes de remboursement des médecins; toutefois, d'autres études incluant des sujets sans TSA sont nécessaires pour évaluer pleinement l'exactitude diagnostique de ces algorithmes. Pour ce qui est du TDAH, il n'y a pas eu suffisamment d'information pour évaluer l'incidence du nombre de codes de diagnostic ou d'autres sources de données sur l'exactitude des algorithmes. Conclusion Selon certaines données probantes, il est possible de repérer les cas de TSA et de TDAH à l'aide de données administratives; toutefois, il existe peu d'études qui évaluent la capacité des algorithmes à établir une distinction fiable entre les sujets qui présentent le trouble étudié et les sujets qui ne le présentent pas. Il n'y a aucune donnée probante sur le TSAF. Des études de qualité méthodologique supérieure sont nécessaires pour comprendre tout le potentiel de l'utilisation des données administratives pour l'identification de ces troubles.
29

Licoppe, Christian, and Laurence Dumoulin. "Le travail des juges et les algorithmes de traitement de la jurisprudence. Premières analyses d’une expérimentation de « justice prédictive » en France." Droit et société N°103, no. 3 (2019): 535. http://dx.doi.org/10.3917/drs1.103.0535.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Franc, S., J. Boudoux, M. Petit, A. Daoudi, A. Pochat, N. Brunel, and G. Charpentier. "PO20 Un algorithme simple de prédiction du risque d’hypoglycémies en cas d’activité physique chez des patients diabétiques de type 1 traités par pompe à insuline sous-cutanée." Diabetes & Metabolism 40 (March 2014): A25—A26. http://dx.doi.org/10.1016/s1262-3636(14)72278-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Amadieu, Romain, Adéla Chahine, and Sophie Breinig. "Place et utilisation de la procalcitonine en réanimation pédiatrique et néonatale." Médecine Intensive Réanimation 30, no. 3 (August 23, 2021): 257–70. http://dx.doi.org/10.37051/mir-00072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La procalcitonine (PCT) est un biomarqueur d’infection bactérienne de plus en plus utilisé en pratique clinique. Dans un service de réanimation, l’interprétation des dosages sanguins de PCT peut être affectée par de nombreuses situations inflammatoires (brûlure, traumatisme, chirurgies extensives dont cardiaque, transfusion massive, insuffisance rénale…). Une revue de la littérature pédiatrique est réalisée et axée sur l’utilisation de la PCT dans trois domaines : marqueur diagnostique d’infection bactérienne ; marqueur d’exclusion d’infection bactérienne ; guide de la durée d’antibiothérapie. En réanimation pédiatrique, la PCT a une précision modérée pour le diagnostic d’infection bactérienne. La suspicion d’infection bactérienne doit rester clinique et conduire, quelle que soit la valeur de la PCT, à l’administration précoce d’une antibiothérapie probabiliste large spectre, secondairement adaptée à l’agent pathogène identifié et à son profil de sensibilité. De par sa valeur prédictive négative élevée, l’utilisation d’un algorithme guidé par la PCT semble intéressante en réanimation pédiatrique pour raccourcir la durée d’antibiothérapie totale et large spectre sans augmentation de réinfection, en utilisant des critères tels que PCT <0.5 ng/mL ou diminuant ≥50-80% par rapport à la valeur maximale. L'algorithme a démontré son efficacité et sa sécurité avec un haut niveau de preuve en réanimation adulte. Cependant, toutes les études pédiatriques publiées précédemment n’étaient pas randomisées. Deux essais contrôlés randomisés pédiatriques sont actuellement en cours : une large étude multicentrique française en réanimation néonatale et une étude monocentrique américaine en réanimation pédiatrique. Le nombre de sujet à inclure doit être suffisamment important pour valider l’objectif de sécurité (non infériorité en termes de mortalité). Enfin, le respect des recommandations pourrait à lui seul diminuer la durée d’antibiothérapie actuelle.
32

Mallet, L. "AFPBN–Traitement du trouble conduite suicidaire." European Psychiatry 30, S2 (November 2015): S68. http://dx.doi.org/10.1016/j.eurpsy.2015.09.326.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les troubles conduites suicidaires bénéficient d’une reconnaissance officielle dans le DSM-5. L’enjeu actuel vise à identifier les modalités de prise en charge de ces patients. Cette session abordera deux aspects thérapeutiques complémentaires, centrés sur les deux principaux facteurs de risque : tentative de suicide et dépression. G. Vaiva propose d’associer les différents types de recontact du suicidant pour élargir la cible de prévention. Plusieurs dispositifs ont été imaginés et testés, sans qu’aucun à lui seul ne se montre satisfaisant pour une majorité de suicidants en population générale. D’où l’idée d’un algorithme simple (ALGOS) qui pourrait allier les qualités de certains des dispositifs proposés : une carte de crise remise aux primosuicidants, l’appel téléphonique à 15 jours pour les sujets récidivistes, l’envoi de quelques cartes postales aux sujets injoignables ou trouvés en difficulté à l’appel téléphonique… M. Morgiève rendra compte d’une démarche sociologique d’évaluation de ce programme de veille des conduites suicidaires. Il s’agit ici de comprendre comment les différentes catégories d’acteurs (psychiatres, psychologues, généralistes, cellule de re-contact, urgentistes, suicidants eux-mêmes) ont pu se sentir impliqués dans ce programme. Une stratégie plus conventionnelle et familière aux psychiatres consiste à traiter la dépression. Si d’un côté, nombre d’arguments sont en faveur de l’intérêt de l’usage des antidépresseurs, les autorités de régulation nous alertent sur l’aggravation possible du risque suicidaire. Il faut néanmoins reconnaître que l’explosion des prescriptions d’antidépresseurs ne s’accompagne pas d’une diminution en rapport des conduites suicidaires. Où est le problème ? P. Courtet montrera que l’on dispose de facteurs prédictifs de l’aggravation du risque suicidaire dans les premières semaines de traitement. En outre, il présentera des données suggérant que les patients déprimés les plus à risque de suicide répondent moins bien aux antidépresseurs. Ceci indique la nécessité de traitements plus efficaces pour les patients qui en nécessitent le plus !
33

Allen, V. M., L. Dodds, A. Spencer, E. A. Cummings, N. MacDonald, and G. Kephart. "Pertinence d'une définition de cas administrative pour l'identification du diabète sucré préexistant à la grossesse." Maladies chroniques et blessures au Canada 32, no. 3 (June 2012): 127–35. http://dx.doi.org/10.24095/hpcdp.32.3.01f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction La détermination précise des cas de grossesse avec diabète préexistant permet d’exercer une surveillance complète des résultats maternels et néonatals associés à cette maladie chronique. Méthodologie Afin de déterminer la pertinence de certaines définitions de cas pour le diabète sucré préexistant lorsqu’on les applique à une population de femmes enceintes, nous avons constitué une cohorte de femmes qui étaient enceintes entre 1991 et 2003 en Nouvelle-Écosse, à partir d’une base de données périnatales provinciale et populationnelle, la Nova Scotia Atlee Perinatal Database (NSAPD). Nous avons associé à cette cohorte des données individuelles issues des bases de données administratives utilisant les données des dossiers de congé des hôpitaux ainsi que les données provenant des services médicaux externes. Nous avons comparé à la définition de référence de la NSAPD divers algorithmes de définition du diabète sucré fondés sur des données administratives, dont l’algorithme proposé par le Système national de surveillance du diabète (SNSD). Résultats L’application de la définition de cas du SNSD à cette population de femmes enceintes a révélé une sensibilité de 87 % et une valeur prédictive positive (VPP) de 66,4 %. Quand on a utilisé les codes de diagnostic de la CIM-9 et de la CIM-10 dans les cas d’hospitalisation avec diabète sucré au cours de la grossesse, la sensibilité et la VPP ont augmenté sensiblement, surtout dans le cas des accouchements effectués dans les centres de soins tertiaires. Pour cette population, les données administratives relatives à la grossesse provenant uniquement de la base de données sur les hospitalisations semblent constituer une source de données plus exacte pour l’identification du diabète préexistant que l’application de la définition de cas du SNSD, particulièrement lorsque les femmes accouchent dans un hôpital de soins tertiaires. Conclusion Même si la définition du diabète établie par le SNSD donne d’assez bons résultats par rapport à une définition de référence de base du diabète, le recours à cette définition pour évaluer les résultats maternels et périnatals associés au diabète durant la grossesse se traduira par un certain degré d’erreur de classification et, par conséquent, par une estimation biaisée des résultats.
34

Renard, E., P. Benhamou, S. Franc, A. Farret, S. Lablanche, I. Xhaard, J. Place, M. Antoniakos, P. Jallon, and G. Charpentier. "CO-64: Évaluation multicentrique randomisée de la faisabilité et de la sécurité d'un algorithme de contrôle de la perfusion d'insuline en boucle fermée selon un modèle prédictif associé à un module réducteur d'hypoglycémie chez des patients diabétiques de type 1." Diabetes & Metabolism 42 (March 2016): A19. http://dx.doi.org/10.1016/s1262-3636(16)30082-9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Israël, Shukuru Kalere-wa-Kabumba. "Étape 8 : Interprétation des Résultats Analysez les résultats et identifiez les tendances prédictives. Si le modèle fonctionne bien, vous pouvez l'utiliser pour prédire les exportations minières artisanales futures basées sur les nouvelles données IoT. Il est important de noter que les performances du modèle peuvent varier en fonction de la qualité et de la quantité des données disponibles, ainsi que des paramètres du modèle (nombre de couches, nombre de neurones, etc.). Il est recommandé d'expérimenter avec différents paramètres et d'autres algorithmes pour trouver la meilleure solution pour votre cas d'utilisation spécifique." Cahier des Recherches Universitaires de l’Université Adventiste de Goma 8 (September 30, 2023): 17–30. http://dx.doi.org/10.61267/cruago-3009232.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La rougeole est une maladie virale hautement contagieuse qui se caractérise par une éruption cutanée, de la fièvre, une toux et un rhume. Elle peut également entraîner des complications graves, telles que la pneumonie, l'encéphalite et la mort.L’objectif de cette étude est de comparer le risque de contracter la rougeole et de développer des complications graves chez les enfants vaccinés contre la rougeole et chez les enfants non vaccinés Une étude analytique rétrospective a été réalisée sur les dossiers médicaux d'enfants vaccinés et non vaccinés contre la rougeole. Les données ont été collectées à partir des registres des malades. Les données ont été analysées à l'aide des logiciels Excel et R. L'étude a été menée de manière éthique et approuvée par le comité d'éthique de l'hôpital. 1535 cas de rougeole enregistrés entre le 1er janvier au 31 décembre 2022 ont été inclus dans l’étude. 44 % des cas étaient des garçons, 61 % vivaient en milieu rural et 61 % des cas avaient moins de 5 ans, 17 % avaient entre 5 et 9 ans et 22 % avaient 10 ans ou plus. Les enfants vaccinés contre la rougeole étaient 80 % moins susceptibles de contracter la maladie (IC à 95 % : 78- 82) et 92 % moins susceptibles de développer des complications graves que les enfants non vaccinés (IC à 95 % : 90-93). Les enfants non vaccinés contre la rougeole couraient 1,95 fois de risque de mourir de la rougeole (OR = 1,95 ; IC à 95 % : 1,33 – 2,56). L'âge, le sexe et le milieu sont tous des facteurs prédictifs significatifs du risque de contracter la rougeole par le fait que les enfants âgés de de 5 à 9 ans avaient 0,61 fois plus de risques de contracter la rougeole que les enfants de 0 à 11 mois (OR=0,61; IC à 95 % : 0,41 – 0,91). Les filles ont un risque attribuable de 0,8 (IC 95 % : 0,6-1,0) de contracter la rougeole par rapport aux garçons. Les enfants vivant en milieu rural avaient 1,71 (IC 95 %: 1,32 – 2,22) fois le risque de contracter la rougeole par rapport aux enfants vivant en milieu urbain. En conclusion, les résultats de notre étude montrent que la vaccination contre la rougeole est le meilleur moyen efficace pour protéger les enfants et prévenir la maladie et ses complications. Les enfants vivant en milieu rural sont plus susceptibles d'attraper la rougeole que les enfants vivant en milieu urbain. Il est donc important de vacciner tous les enfants contre la rougeole en mettant un accès particulier aux les enfants vivant en milieu rural
36

Harris, Jeff R., Juan X. He, Robert Rainbird, and Pouran Behnia. "A Comparison of Different Remotely Sensed Data for Classifying Bedrock Types in Canada’s Arctic: Application of the Robust Classification Method and Random Forests." Geoscience Canada 41, no. 4 (December 3, 2014): 557. http://dx.doi.org/10.12789/geocanj.2014.41.062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The Geological Survey of Canada, under the Remote Predictive Mapping project of the Geo-mapping for Energy and Minerals program, Natural Resources Canada, has the mandate to produce up-to-date geoscience maps of Canada’s territory north of latitude 60°. Over the past three decades, the increased availability of space-borne sensors imaging the Earth’s surface using increasingly higher spatial and spectral resolutions has allowed geologic remote sensing to evolve from being primarily a qualitative discipline to a quantitative discipline based on the computer analysis of digital images. Classification of remotely sensed data is a well-known and common image processing application that has been used since the early 1970s, concomitant with the launch of the first Landsat (ERTS) earth observational satellite. In this study, supervised classification is employed using a new algorithm known as the Robust Classification Method (RCM), as well as a Random Forest (RF) classifier, to a variety of remotely sensed data including Landsat-7, Landsat-8, Spot-5, Aster and airborne magnetic imagery, producing predictions (classifications) of bedrock lithology and Quaternary cover in central Victoria Island, Northwest Territories. The different data types are compared and contrasted to evaluate how well they classify various lithotypes and surficial materials; these evaluations are validated by confusion analysis (confusion matrices) as well as by comparing the generalized classifications with the newly produced geology map of the study area. In addition, three new Multiple Classification System (MCS) methods are proposed that leverage the best characteristics of all remotely sensed data used for classification. Both RCM (using the maximum likelihood classification algorithm, or MLC) and RF provide good classification results; however, RF provides the highest classification accuracy because it uses all 43 of the raw and derived bands from all remotely sensed data. The MCS classifications, based on the generalized training dataset, show the best agreement with the new geology map for the study area.SOMMAIREDans le cadre de son projet de Télécartographie prédictive du Programme de géocartographie de l’énergie et des minéraux de Ressources naturelles Canada, la Commission géologique du Canada a le mandat de produire des cartes géoscientifiques à jour du territoire du Canada au nord de la latitude 60°. Au cours des trois dernières décennies, le nombre croissant des détecteurs aérospatiaux aux résolutions spatiales et spectrales de plus en plus élevées a fait passer la télédétection géologique d’une discipline principalement qualitative à une discipline quantitative basée sur l'analyse informatique d’images numériques. La classification des données de télédétection est une application commune et bien connue de traitement d'image qui est utilisée depuis le début des années 1970, parallèlement au lancement de Landsat (ERST) le premier satellite d'observation de la Terre. Dans le cas présent, nous avons employé une méthode de classification dirigée en ayant recours à un nouvel algorithme appelé Méthode de classification robuste (MRC), ainsi qu’au classificateur Random Forest (RF), appliqués à une variété de données de télédétection dont celles de Landsat-7, Landsat-8, Spot-5, Aster et d’imagerie magnétique aéroportée, pour produire des classifications prédictives de la lithologie du substratum rocheux et de la couverture Quaternaire du centre de l'île Victoria, dans les Territoires du Nord-Ouest. Les différents types de données sont comparés et contrastés pour évaluer dans quelle mesure ils classent les divers lithotypes et matériaux de surface; ces évaluations sont validés par analyse de matrices de confusion et par comparaison des classifications généralisées des nouvelles cartes géologiques de la zone d'étude. En outre, trois nouvelles méthodes par système de classification multiple (MCS) sont proposées qui permettent d’exploiter les meilleures caractéristiques de toutes les données de télédétection utilisées pour la classification. Tant la méthode MRC (utilisant l'algorithme de classification de vraisemblance maximale ou MLC que la méthode RF donne de bons résultats de classification; toutefois c’est la méthode RF qui offre la précision de classification la plus élevée car elle utilise toutes les 43 les bandes de données brutes et dérivées de toutes les données de télédétection. Les classifications MCS, basées sur le jeu de données généralisées d’apprentissage, montrent le meilleur accord avec la nouvelle carte géologique de la zone d'étude.
37

Saule, Cédric, Mireille Regnier, Jean-Marc Steyaert, and Alain Denise. "Counting RNA pseudoknotted structures (extended abstract)." Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings vol. AN,..., Proceedings (January 1, 2010). http://dx.doi.org/10.46298/dmtcs.2834.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
International audience In 2004, Condon and coauthors gave a hierarchical classification of exact RNA structure prediction algorithms according to the generality of structure classes that they handle. We complete this classification by adding two recent prediction algorithms. More importantly, we precisely quantify the hierarchy by giving closed or asymptotic formulas for the theoretical number of structures of given size n in all the classes but one. This allows to assess the tradeoff between the expressiveness and the computational complexity of RNA structure prediction algorithms. \par En 2004, Condon et ses coauteurs ont défini une classification des algorithmes exacts de prédiction de structure d'ARN, selon le degré de généralité des classes de structures qu'ils sont capables de prédire. Nous complétons cette classification en y ajoutant deux algorithmes récents. Chose plus importante, nous quantifions la hiérarchie des algorithmes, en donnant des formules closes ou asymptotiques pour le nombre théorique de structures de taille donnée n dans chacune des classes, sauf une. Ceci fournit un moyen d'évaluer, pour chaque algorithme, le compromis entre son degré de généralité et sa complexité.
38

Jami, Sylvie, Tao-Yan Jen, Dominique Laurent, Georges Loizou, and Oumar Sy. "Extraction of Association Rules for the Prediction of Missing Values." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 3, Special Issue... (November 27, 2005). http://dx.doi.org/10.46298/arima.1834.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
International audience Missing values in databases have motivated many researches in the field of KDD, specially concerning prediction. However, to the best of our knowledge, few appraoches based on association rules have been proposed so far. In this paper, we show how to adapt the levelwise algorithm for the mining of association rules in order to mine frequent rules with a confidence equal to 1 from a relational table. In our approach, the consequents of extracted rules are either an interval or a set of values, according to whether the domain of the predicted attribute is continuous or discrete. La présence de valeurs manquantes ou valeurs nulles dans les bases de donnnées a suscité de nombreuses recherches dans le domaine de la découverte des connaissances, notamment en ce qui concerne la prédiction. Cependant, à notre connaissance, peu de telles approches utilisent les règles d'association pour la prédiction des valeurs manquantes. Dans cet article, il est montré comment adapter les différents concepts et algorithmes par niveau liés aux règles d'association, afin d'obtenir des règles fréquentes et de confiance 1, permettant la prédiction de valeurs manquantes dans une table relationnelle. La particularité des règles extraites dans notre approche est que leurs conséquents se présentent sous la forme d'intervalles ou d'ensembles de valeurs, selon que le domaine de l'attribut sur lequel les valeurs sont prédites est soit continu soit discret.
39

Douillet, D., T. Barbère, M. Peintre, T. Moumneh, F. Morin, D. Savary, A. Penaloza, and P. M. Roy. "Risque thromboembolique veineux chez les patients traumatisés d’un membre inférieur nécessitant une immobilisation : vers une approche individualisée." Annales françaises de médecine d’urgence, 2021. http://dx.doi.org/10.3166/afmu-2021-0345.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un traumatisme d’un membre inférieur nécessitant une immobilisation est une situation à risque de développement de maladie thromboembolique veineuse (MTEV). Cependant, les recommandations et les pratiques varient notablement d’un pays à un autre et d’un centre à un autre. Cette revue narrative a pour objectifs de décrire l’épidémiologie, la prévention et les algorithmes de prédiction de la MTEV chez les patients traumatisés d’un membre inférieur nécessitant une immobilisation. L’incidence de la MTEV varie selon les études du fait de la grande hétérogénéité des patients inclus (de l’entorse de cheville à une lésion chirurgicale) et du fait des différents critères d’évaluation utilisés. L’incidence des événements thromboemboliques veineux symptomatiques est estimée à 2,0 % (intervalle de confiance à 95 % : 1,3 à 2,7). L’efficacité de la thromboprophylaxie a été démontrée dans des méta-analyses récentes. Cependant, la confiance à accorder à ces résultats est médiocre, car de nombreux essais présentaient des faiblesses méthodologiques. L’étude la plus importante et la plus récente ne montre pas de bénéfice de la prévention par héparine de bas poids moléculaire sur les événements symptomatiques dans une population non ciblée. Ces résultats suggèrent d’adopter une démarche personnalisée en réservant la prophylaxie aux patients à risque. Plusieurs scores existent pour évaluer le risque thromboembolique individuel. La prise en compte des caractéristiques du patient, du traumatisme et de l’immobilisation permet d’identifier un large sous-groupe de patients chez qui la prévention ne semble pas utile et un sous-groupe de patients à haut risque où la prévention devrait être prescrite, voire renforcée. En conclusion, lors d’un traumatisme d’un membre inférieur nécessitant une immobilisation, l’indication d’une thromboprophylaxie devrait être guidée par l’évaluation individuelle du risque thrombotique.
40

Rubin, Victoria. "AI Opaqueness: What Makes AI Systems More Transparent?" Proceedings of the Annual Conference of CAIS / Actes du congrès annuel de l'ACSI, November 8, 2020. http://dx.doi.org/10.29173/cais1139.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Artificially Intelligent (AI) systems are pervasive, but poorly understood by their users and, at times, developers. It is often unclear how and why certain algorithms make choices, predictions, or conclusions. What does AI transparency mean? What explanations do AI system users desire? This panel discusses AI opaqueness with examples in applied context such as natural language processing, people categorization, judicial decision explanations, and system recommendations. We offer insights from interviews with AI system users about their perceptions and developers’ lessons learned. What steps should be taken towards AI transparency and accountability for its decisions? Les systèmes artificiellement intelligents (IA) sont omniprésents, mais mal compris par leurs utilisateurs et, parfois, par les développeurs. On ne sait souvent pas comment et pourquoi certains algorithmes font des choix, des prédictions ou des conclusions. Que signifie la transparence de l'IA? Quelles explications les utilisateurs du système d'IA souhaitent-ils? Ce panel examine l'opacité de l'IA avec des exemples dans un contexte appliqué tels que le traitement du langage naturel, la catégorisation des personnes, les explications des décisions judiciaires et les recommandations système. Nous proposons des informations issues d'entretiens avec des utilisateurs de systèmes d'IA sur leurs perceptions et les leçons apprises par les développeurs. Quelles mesures devraient être prises pour assurer la transparence et la responsabilité de l'IA pour ses décisions?
41

Qazi, Imtnan-Ul-Haque, O. Alata, J. C. Burie, A. Moussa, and Christine Fernandez-Maloigne. "Segmentation d’Images Texturées Couleur à l’aide de modèles paramétriques pour approche la distribution des erreurs de prédiction linéaires." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (October 8, 2011). http://dx.doi.org/10.46298/arima.1942.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
International audience We propose novel a priori parametric models to approximate the distribution of the two dimensional multichannel linear prediction error in order to improve the performance of color texture segmentation algorithms. Two dimensional linear prediction models are used to characterize the spatial structures in color images. The multivariate linear prediction error of these texture models is approximated with Wishart distribution and multivariate Gaussian mixture models. A novel color texture segmentation framework based on these models and a spatial regularization model of initial class label fields is presented. For the proposed method and with different color spaces, experimental results show better performances in terms of percentage segmentation error, in comparison with the use of a multivariate Gaussian law.
42

Lukasik, Stéphanie, and Alexandra Salou. "Re-information as the socio-digital amplification of disinformation." La désinformation, hier et aujourd’hui. Une approche interdisciplinaire, no. 7 (February 9, 2024). http://dx.doi.org/10.35562/balisages.1200.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au sein de cet article, nous abordons la réinformation en tant qu’amplification socionumérique de la désinformation. La réinformation relève d’une information d’actualité manipulée, diffusée et produite en fonction d’une idéologie. Sa diffusion et sa production ont été amplifiées par le fonctionnement même des réseaux socionumériques. L’utilisation des algorithmes prédictifs facilite et amplifie le partage de tels contenus en créant des bulles de filtre. Pour rendre compte de ce phénomène, nous avons choisi de procéder à une analyse comparative entre le Canada, le Luxembourg et la France. Cet article interroge d’une part les pratiques des professionnels de l’information face à ce phénomène de réinformation amplifié, et d’autre part les publics au prisme de leurs usages et de leurs réceptions de l’information. L’objectif de cet article est d’éclairer la manière dont le développement de la réinformation reconfigure les liens entre journalistes et publics du point de vue des professionnels de l’information et du point de vue des usagers-récepteurs.
43

Islam, Riadul. "Early Stage DRC Prediction Using Ensemble Machine Learning Algorithms Prédiction de la DRC à un stade précoce à l’aide d’un ensemble d’algorithmes d’apprentissage machine." IEEE Canadian Journal of Electrical and Computer Engineering, 2022, 1–11. http://dx.doi.org/10.1109/icjece.2022.3200075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Boullier, Dominique. "Entretien." Penser les données par le territoire ?, no. 3 (November 19, 2021). http://dx.doi.org/10.35562/balisages.722.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour Dominique Boullier, mieux que d’autres notion telles que « milieu », « monde » ou « espace », la notion de « territoire » est pertinente parce qu’elle permet d’intégrer « les deux faces de l’expérience spatiale qui comporte un mouvement d’appropriation ». Elle permet alors de déployer une anthropologie de l’appropriation qui regarde Internet non comme un habit, un habité, un habitat ou un habitacle, mais comme tout cela à la fois, condensé dans la notion d’« habitèle ». Cette approche théorique est déterminante dans le regard critique que Dominique Boullier porte ici sur les transformations qu’a connu Internet ces 10 dernières années : en poussant à l’extrême l’analyse proposée par celui-ci on peut dire que les enjeux de ce territoire numérique, de cet habitèle, en ont oublié l’habitant lui-même. Il est question de montée en puissance des plateformes, de « disparition de l’internet en tant qu’espace mondial », d’enjeux économiques des métriques d’audience devenues métriques d’activités, d’impact de la monétisation des engagements sur la création de monopoles, de polarisation… Les luttes dont Internet est l’objet portent en effet moins vers la conquête d’un « bien commun » comme d’exigences de transparence qui permettent à tous d’apprendre, que vers un rééquilibrage des seules mannes financières dont il est porteur : « Toute la décennie 2010 a été celle du Far-West, de la prédation de traces, de la fraude fiscale, des achats des concurrents sans limites, des abus de positions dominantes, et de l’augmentation de l’opacité des algorithmes et de leur puissance prédictive supposée grâce au Machine Learning ».

To the bibliography