Literatura académica sobre el tema "Méthodes interprétables"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Méthodes interprétables".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Méthodes interprétables"

1

VAILLANT-ROUSSEL, H., C. BLANCHARD, T. MENINI, E. CHARUEL, B. PEREIRA, F. NAUDET, B. KASSAI et al. "PROJET REBUILD THE EVIDENCE". EXERCER 34, n.º 190 (1 de febrero de 2023): 81–88. http://dx.doi.org/10.56746/exercer.2023.190.81.

Texto completo
Resumen
Introduction. La médecine fondée sur les preuves (EBM) est la pierre angulaire de la décision médicale partagée. Le public mérite des informations claires, transparentes et dignes de confiance sur l’efficacité des médicaments. Pourtant, aujourd’hui, de nombreux médicaments sont prescrits et utilisés sans preuve solide de leur efficacité. Les essais cliniques randomisés (ECR) et leurs méta-analyses sont les meilleures études pour évaluer l’efficacité des médicaments et leurs effets indésirables, mais leurs résultats ne sont pas facilement interprétables en pratique et sont même parfois discutables par rapport aux données retenues. Dans une approche de décision médicale partagée, les médecins généralistes ont besoin que l’évaluation des médicaments soit fondée sur des résultats importants et pertinents pour le patient. L’objectif du projet Rebuild the Evidence Base (REB) est de combler le fossé entre les données nécessaires à la pratique clinique et les données disponibles de la recherche clinique. Méthodes et analyses. Les médicaments seront évalués selon des critères cliniques importants pour les patients et dans une population donnée. En utilisant les outils Cochrane, pour chaque population et critère d’évaluation choisis, seront réalisées : 1. une méta-analyse, fondée sur des essais contrôlés randomisés (ECR) avec un faible risque global de biais ; 2. l’évaluation des résultats issus des ECR de confirmation ; 3. l’évaluation de l’hétérogénéité statistique entre essais (I2), et 4. l’évaluation du risque de biais de publication. En fonction des résultats de ces analyses, les preuves seront évaluées selon quatre niveaux : preuve solide, résultat probant mais à confirmer, signal à confirmer, ou absence de preuve. Conclusion. Le projet REB propose une méthode de lecture et d’interprétation des essais cliniques randomisés et de leur méta-analyse afin de produire des données de qualité permettant aux médecins généralistes de se centrer sur l’évaluation du bénéfice-risque dans l’intérêt des patients. Si ces données n’existent pas, cela permettra à la recherche clinique de mieux définir ses objectifs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Franke, William. "Psychoanalysis as a Hermeneutics of the Subject: Freud, Ricoeur, Lacan". Dialogue 37, n.º 1 (1998): 65–82. http://dx.doi.org/10.1017/s0012217300047594.

Texto completo
Resumen
RésuméLa connaissance herméneutique est généralement définie comme un savoir engagé, par opposition au savoir détaché que produit la méthode scientifique. La tension entre ces deux modèles dans la théorie psychanalytique de Freud est ici mise en évidence avec l'aide de Ricœur: cette théorie interprète des intentions conscientes, mais explique en même temps la vie psychique d'une façon mécaniste en termes depulsions somatiques. On montre ensuite comment le développement lacanien de la psychanalyse rend l'être habituellement caché de la subjectivité—l'inconscient—accessible comme langage. Structuré comme un langage, l'inconscient est articulé et interprétable; et son interprétation est accès au langage du «réel», par-delà les limites de l'objectivité scientifique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Hammad, Manar. "L'Université de Vilnius: exploration sémiotique de l’architecture et des plans". Semiotika 10 (22 de diciembre de 2014): 9–115. http://dx.doi.org/10.15388/semiotika.2014.16756.

Texto completo
Resumen
Cette étude sémiotique de l’Université de Vilnius s’articule en deux composantes intimement liées: l’objet d’étude d’une part, la méthode mise en oeuvre d’autre part. L’image qui se dégage de l’objet dépend de la méthode descriptive, et la méthode descriptive a été adaptée pour la prise en compte de certains caractères spécifiques de l’objet donné. Par commodité, ces deux composantes seront abordées séparément dans ce résumé.L’objet d’étude est constitué par l’Université de Vilnius, considérée d’un point de vue spatial. Si l’état actuel des bâtiments est directement accessible à l’observation, plusieurs états antérieurs sont décrits par une collection de plans conservés dans les archives du département de l’héritage culturel du Ministère de la Culture Lituanien. La Bibliothèque Nationale de France conserve en outre une collection de projets dessinés pour l’Université de Vilnius au sein de la Compagnie de Jésus. L’analyse sémiotique de ce corpus syncrétique (bâtiments, plans techniques, projets) impose la prise en compte d’acteurs sociaux (enseignants, étudiants, techniciens) et d’acteurs environnementaux (froid, feu, intempéries, vieillissement) dont les interactions avec les lieux sont productrices de sens.Le caractère spécifique d’un tel corpus pourrait laisser croire que l’analyse n’aurait d’intérêt que pour des lecteurs lituaniens motivés par des liens affectifs locaux. Sans remettre en cause les qualités indéniables du corpus retenu, l’utilisation de la méthode sémiotique donne à l’analyse un intérêt méthodologique dont la généralité ne se restreint pas au cas considéré. Pour l’étude des plans de l’Université de Vilnius, l’approche sémiotique est amenée à effectuer un bond qualitatif par rapport aux études initiées en 1974 par le Groupe 107, et l’approche discursive Greimassienne remplace une approche linguistique trop attachée au modèle Hjelmslevien. La consécution diachronique des plans permet de reconnaître plusieurs transformations de l’espace universitaire, chacune d’entre elles distinguant un avant d’un après. L’aménagement des cours autour desquelles se déploient les salles, la concaténation des cours, leur orientation, leurs degrés d’ouverture, permettent de reconnaître des effets de sens successifs qui informent l’opération globale par laquelle l’Université tend à occuper la totalité de l’îlot urbain dans lequel elle est inscrite, et dont elle n’occupait initialement qu’une partie réduite. L’apparition des portiques au dix-septième siècle, leur mode d’implantation, leur organisation modifient profondément l’espace universitaire, tant dans son allure visuelle que dans son fonctionnement pragmatique. La substitution des voûtes aux plafonds change l’allure de l’intérieur des locaux, tout en assurant une meilleure résistance aux éventuels incendies, dont l’occurrence répétée est notée par les archives.L’analyse discursive de l’espace impose la prise en compte d’acteurs sociaux qui agissent sur l’espace ou dans son cadre. Une première distinction différencie les Enseignants des Enseignés. Lors de la fondation de l’Université en 1586, l’enseignement est confié à la Société de Jésus, dont la fondation en 1540 était relativement récente, et dont la vocation à l’enseignement s’affirmait avec force non seulement en Europe, mais aussi au Nouveau Monde récemment découvert. La dissolution de l’Ordre Jésuite en 1772 eut des répercussions directes sur l’Université de Vilnius, en particulier sur l’organisation interne des locaux et sur leur attribution fonctionnelle (on peut noter que la différenciation fonctionnelle des lieux est inscrite sur les plans qui remontent au début du dix-septième siècle). Les espaces dévolus aux étudiants permettent de distinguer un groupe résidant (les internes) et un groupe non résidant (les externes) parmi une population que l’on suppose locale et régionale, car la situation géographique de la Lituanie était relativement périphérique par rapports aux centres du savoir qu’étaient Rome et Paris à la fin du seizième siècle et au début du dix-septième siècle. L’élaboration parisienne des plans pour l’Université de Vilnius témoigne du fait que l’on pensait l’espace comme un moyen d’action (que la sémiotique identifie, selon les cas, comme acte d’énonciation spatiale, ou comme acte de manipulation, au sens technique du terme).Différentes expressions matérielles (alignement des bâtiments sur les directions cardinales, allure italianisante des cours à portiques) véhiculent les valeurs profondes universelles du programme de base de l’Université, qui est celui de la diffusion (transmission) de valeurs abstraites d’un centre vers une périphérie. L’enseignement réservait un large part à la religion catholique, universelle par définition (c’est le Père de l’Église Clément d’Alexandrie qui promeut l’usage du terme grec Katholikos -universel- pour qualifier le Christianisme). Dans l’Italie de la Renaissance, les théoriciens Alberti et Vasari opposent les valeurs universelles de l’Humanisme, tirées de l’Antiquité Classique, aux valeurs particulières caractérisant la production de l’Europe « gothique » du Moyen-Âge, ce dernier étant défini négativement comme ce qui a séparé l’Antiquité de la Renaissance.Considérée comme énoncé spatial, l’architecture apparaît comme un dispositif matériel chargé de modalités destinées à réguler l’action des acteurs qui y accomplissent leurs programmes d’usage. La circulation physique des personnes s’avère jouer un rôle central parmi les actions reconnaissables. Le circuit des visites guidées, opposé à la latitude donnée aux étudiants et aux enseignants, permet de définir un secteur public (moderne) de l’Université, centré sur la bibliothèque, et opposable à un secteur privé centré sur le rectorat. Les portiques, installés aux différents étages pour résoudre des questions de circulation humaine, remplissent simultanément des fonctions d’éclairage et d’isolation thermique. En reconnaissant de telles superpositions fonctionnelles, l’analyse impose la reconnaissance d’acteurs sémiotiques non matériels tels que la lumière et le froid. La poursuite de la même logique d’analyse mène à la reconnaissance du feu et du temps comme acteurs jouant un rôle dans la détermination des formes architecturales, et donc dans la formation de l’énoncé spatial qu’est l’Université.Opposable aux processus évoqués ci-dessus, l’action qui coordonne l’homogénéisation de l’allure de la Grande Cour et celle de la Cour de l’Observatoire ne relève pas de l’énoncé spatial interne, mais d’une énonciation externe: elle témoigne d’une pensée plastique, géométrique, qui poursuit une fin identitaire: son action donne à l’Université, à un moment de son existence, une allure cohérente qui participe à la définition de son identité. Une démarche énonciative comparable est repérable, à l’époque récente, dans la mise en espace de deux espaces garnis de fresques: le vestibule balte et le vestibule grec. Par de tels actes énonciatifs, la direction de l’Université s’adresse à la communauté universitaire, définie ainsi comme un destinataire interne, pour lui transmettre des messages dont les valeurs profondes sont reconnaissables comme l’identité, la cohérence, l’universel, le particulier. D’autres transformations architecturales, en particulier celles qui sont menées au début du dix-neuvième siècle sur la cour de la bibliothèque, développent vis à vis du public extérieur à l’Université, un discours relatif aux savoirs qu’elle développe et diffuse dans la société. Le caractère diachronique du corpus impose de reconnaître des transformations, mettant dès lors l’accent sur des actes énonciatifs spatiaux, puisque tout acte de construction est interprétable comme un acte énonciatif. Ce qui fait beaucoup de place, dans l’analyse, aux effets de sens énonciatifs, aux dépens des effets de sens énoncifs. D’un point de vue méthodologique, ceci apporte la preuve, par l’exemple, de la pertinence de l’utilisation du concept d’énonciation pour une expression spatiale et non verbale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

DE ANGELIS, Rossana. "Qu’est-ce que veut dire interpréter dans le cadre d’une herméneutique (du) numérique ?" Des textes au sens. Ce que les innovations technologiques ne prouvent pas. 10, n.º 3 (15 de febrero de 2022). http://dx.doi.org/10.25965/interfaces-numeriques.4689.

Texto completo
Resumen
L’herméneutique du numérique, conçue comme méthode d’interprétation de textes, demande de revenir sur ce qu’« interpréter » veut dire. En particulier, nous allons nous interroger sur les processus d'interprétation et d'objectivation des données textuelles. Du point de vue herméneutique, nous pouvons identifier deux médiations nécessaires pour passer des textes au sens : une première médiation concernant l’inscription des traces numériques calculables, ce qui suppose une manipulation asémantique ; une deuxième médiation concernant la transcription des traces numériques interprétables, ce qui suppose une manipulation sémantique. Dans les pages qui suivent, nous allons explorer ces deux processus de médiation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Serpantié, Georges, Maud Loireau, Brigitte Bastide, Cathy Clermont-Dauphin, Abdraime Sawadogo, Manaka Douanio y Abdoul-Aziz Maiga. "Services mutuels entre arbres, cultures et élevage dans les parcs agroforestiers de la zone sub-humide du Burkina Faso". BASE, 2023, 145–62. http://dx.doi.org/10.25518/1780-4507.20445.

Texto completo
Resumen
Description du sujet. Les parcs agroforestiers de l’Afrique sub-humide connaissent des variations régionales de composition et de densité qui pourraient être liées à des facteurs naturels et aux savoirs et objectifs de leurs gestionnaires quant aux bénéfices et inconvénients des arbres. Objectifs. Afin de vérifier cette dernière l’hypothèse, nous avons utilisé le cadre d’analyse des services et desservices écosystémiques (SE/DSE) en partant du point de vue des familles paysannes qui gèrent les parcs. Méthode. Sur un transect sociétal en zone sud soudanienne du Burkina Faso, dans une zone au milieu suffisamment homogène, six villages divisés en deux groupes (Ouest, Est) selon des critères sociétaux ont fait l’objet de 67 entretiens auprès de familles exploitantes de champs inventoriés par ailleurs. Les enquêteurs ont employé des équivalents de l’idée de bénéfice ou avantage des arbres pour les cultures et l’élevage, et vice versa, dans les langues locales. La fréquence de citation d’un SE/DSE constitue un indicateur d’importance de ce dernier pour une population. Les SE/DSE reconnus par une majorité sont qualifiés « essentiels ». Résultats. Avec huit SE importants pour seulement deux DSE, les avantages mutuels perçus entre composantes de l’association arbres-cultures-élevage dominent. Les SE des arbres aux cultures et au bétail et les SE inverses sont presque aussi nombreux, créant une synergie. À l’Est du transect (parc dense et diversifié sur cultures manuelles de sorgho), l’ensemble constitué de cette synergie, des cinq SE essentiels (fertilité du sol, alimentation bétail – feuilles et fruits –, ombrage du bétail, fertilisation de l’arbre par bétail) et des SE directs (approvisionnement en bois et fruits), est interprétable comme une nécessité perçue d’un peuplement arboré dense et varié, plus qu’un simple bénéfice. Dans l’Ouest en revanche (parc peu dense et pauvre en espèces sur cultures intensives mécanisées), il est perçu un DSE essentiel des arbres (ombrage et gêne des cultures), aussi le parc est pensé comme moins nécessaire et réduit à son minimum pour la seule production lucrative de karité. Conclusions. Ces faisceaux de relations perçues qui dépendent des systèmes de culture et d’élevage menés sont donc à la base de l’arbitrage de densité et de composition. À l’Ouest, la réhabilitation du parc serait facilitée par des appuis et incitations provenant des filières coton et karité, responsables de l’appauvrissement du parc, pour y compenser l’arbitrage défavorable. Cette réhabilitation aurait pour but de rendre des SE spécifiques à la fois locaux (régénération du karité, fourrages, santé du sol) et globaux (biodiversité, carbone).
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Ywaya, Ruthdol y Brandi Newby. "Assessment of Empiric Vancomycin Regimen in the Neonatal Intensive Care Unit". Canadian Journal of Hospital Pharmacy 72, n.º 3 (25 de junio de 2019). http://dx.doi.org/10.4212/cjhp.v72i3.2901.

Texto completo
Resumen
<p><strong>ABSTRACT</strong><br /><strong></strong></p><p><strong>Background:</strong> Vancomycin is used to treat serious gram-positive infections in neonates. Currently, there is no consensus on the preferred empiric dosing regimen or target trough vancomycin levels for neonates. The current Fraser Health empiric dosing regimen, implemented in 2010, was designed to achieve target trough levels of 5 to 15 mg/L. <br /><strong></strong></p><p><strong>Objectives:</strong> To determine the percentage of neonates receiving vancomycin in whom target trough levels of 5 to 15 mg/L were achieved, to identify the times to negative culture result and clinical resolution, and to determine the incidence of nephrotoxicity.<br /><strong></strong></p><p><strong>Methods:</strong> A chart review was completed for patients who had received vancomycin in the neonatal intensive care unit of either Surrey Memorial Hospital or Royal Columbian Hospital from June 2012 to May 2017 and for whom at least 1 interpretable vancomycin level was available. <br /><strong></strong></p><p><strong>Results:</strong> A total of 87 vancomycin encounters (in 78 neonates) were identified in which the drug had been given according to the Fraser Health empiric dosing regimen. Target trough vancomycin level (5 to 15 mg/L) was achieved in 75% of these encounters. The mean times to negative culture result and clinical resolution were 5 and 6 days, respectively. There was no statistically significant correlation between vancomycin level <br />and time to clinical resolution (rs = 0.366, p = 0.072). Among cases in which the trough vancomycin level exceeded 15 mg/L, the incidence of<br />nephrotoxicity was 22% (4/18). <br /><strong></strong></p><p><strong>Conclusions:</strong> The current Fraser Health empiric dosing regimen for vancomycin achieved target trough levels of the drug for most neonates in this study. Targeting trough levels less than 15 mg/L when appropriate to the infection type may limit nephrotoxicity associated with vancomycin in neonates. Further studies are needed to evaluate the clinical significance of various vancomycin levels.</p><p><strong>RÉSUMÉ</strong><br /><strong></strong></p><p><strong>Contexte :</strong> La vancomycine est utilisée dans le traitement d’infections graves à bactéries à Gram positif chez le nouveau-né. Il n’y a pour l’instant pas de consensus quant à la posologie empirique ou aux concentrations minimales visées de vancomycine à privilégier chez le nouveau-né. La posologie empirique actuelle de la Fraser Health, instaurée en 2010, visait des concentrations minimales de 5 à 15 mg/L. <br /><strong></strong></p><p><strong>Objectifs :</strong> Déterminer le pourcentage de nouveau-nés ayant reçu les concentrations minimales visées de 5 à 15 mg/L de vancomycine, établir le temps nécessaire à l’obtention d’un résultat de culture négatif et celui nécessaire à la disparition clinique des symptômes et déterminer l’incidence de la néphrotoxicité.</p><p><strong>Méthodes :</strong> Les investigateurs ont analysé des dossiers de patients ayant reçu de la vancomycine pendant leur séjour à l’unité de soins intensifs néonatals du Surrey Memorial Hospital ou du Royal Columbian Hospital entre juin 2012 et mai 2017, qui mentionnaient au moins une concentration de vancomycine interprétable. <br /><strong></strong></p><p><strong>Résultats :</strong> Ils ont répertorié 87 traitements de vancomycine (chez 78 nouveau-nés) administrés selon la posologie empirique de la Fraser Health. Les concentrations minimales visées de 5 à 15 mg/L ont été atteintes dans 75 % de ces traitements. Le temps moyen nécessaire à l’obtention d’un résultat de culture négatif ou à la disparition clinique des symptômes était respectivement de cinq et de six jours. Aucune corrélation statistiquement significative entre les concentrations de vancomycine et le temps nécessaire à la disparition clinique des symptômes n’a été relevée (rs = 0,366, p = 0,072). Parmi les cas où les concentrations minimales de vancomycine dépassaient 15 mg/L, l’incidence de néphrotoxicité était de 22 % (4/18). <br /><strong></strong></p><p><strong>Conclusions :</strong> La posologie empirique de vancomycine actuellement en place à la Fraser Health a permis d’atteindre les concentrations minimales visées de médicament pour la plupart des nouveau-nés de la présente étude. Cibler des concentrations minimales de moins de 15 mg/L lorsque cela est pertinent en fonction du type d’infection pourrait limiter le nombre de cas de néphrotoxicité associés à la vancomycine chez les nouveau-nés. De plus amples études sont nécessaires pour évaluer la portée clinique de différentes concentrations de vancomycine.</p>
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Méthodes interprétables"

1

Avalos, Marta. "Modèles additifs parcimonieux". Phd thesis, Université de Technologie de Compiègne, 2004. http://tel.archives-ouvertes.fr/tel-00008802.

Texto completo
Resumen
De nombreux algorithmes d'estimation fonctionnelle existent pour l'apprentissage statistique supervisé. Cependant, ils ont pour la plupart été développés dans le but de fournir des estimateurs précis, sans considérer l'interprétabilité de la solution. Les modèles additifs permettent d'expliquer les prédictions simplement, en ne faisant intervenir qu'une variable explicative à la fois, mais ils sont difficiles à mettre en ouvre. Cette thèse est consacrée au développement d'un algorithme d'estimation des modèles additifs. D'une part, leur utilisation y est simplifiée, car le réglage de la complexité est en grande partie intégré dans la phase d'estimation des paramètres. D'autre part, l'interprétabilité est favorisée par une tendance à éliminer automatiquement les variables les moins pertinentes. Des stratégies d'accélération des calculs sont également proposées. Une approximation du nombre effectif de paramètres permet l'utilisation de critères analytiques de sélection de modèle. Sa validité est testée par des simulations et sur des données réelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Loiseau, Romain. "Real-World 3D Data Analysis : Toward Efficiency and Interpretability". Electronic Thesis or Diss., Marne-la-vallée, ENPC, 2023. http://www.theses.fr/2023ENPC0028.

Texto completo
Resumen
Cette thèse explore de nouvelles approches d'apprentissage profond pour l'analyse des données 3D du monde réel. Le traitement des données 3D est utile pour de nombreuses applications telles que la conduite autonome, la gestion du territoire, la surveillance des installations industrielles, l'inventaire forestier et la mesure de biomasse. Cependant, l'annotation et l'analyse des données 3D peuvent être exigeantes. En particulier, il est souvent difficile de respecter des contraintes liées à l'utilisation des ressources de calcul ou à l'efficacité de l'annotation. La difficulté d'interpréter et de comprendre le fonctionnement interne des modèles d'apprentissage profond peut également limiter leur adoption.Des efforts considérables ont été déployés pour concevoir des méthodes d'analyse des données 3D, afin d'effectuer des tâches telles que la classification des formes ou la segmentation et la décomposition de scènes. Les premières analyses automatisées s'appuyaient sur des descripteurs créés à la main et incorporaient des connaissances préalables sur les acquisitions du monde réel. Les techniques modernes d'apprentissage profond ont de meilleures performances, mais, sont souvent coûteuses en calcul, dépendent de grands ensembles de données annotées, et sont peu interprétables. Les contributions de cette thèse répondent à ces limitations.La première contribution est une architecture d'apprentissage profond pour l’analyse efficace de séquences LiDAR en temps réel. Notre approche prend en compte la géométrie d'acquisition des capteurs LiDAR rotatifs, que de nombreuses pipelines de conduite autonome utilisent. Par rapport aux travaux antérieurs, qui considèrent les rotations complètes des capteurs LiDAR individuellement, notre modèle traite l'acquisition par petits incréments. L'architecture que nous proposons à une performance comparable à celle des meilleures méthodes, tout en réduisant le temps de traitement de plus de cinq fois, et la taille du modèle de plus de cinquante fois.La deuxième contribution est une méthode d'apprentissage profond permettant de résumer de vastes collections de formes 3D à l'aide d'un petit ensemble de formes 3D. Nous apprenons un faible nombre de formes prototypiques 3D qui sont alignées et déformées pour reconstruire les nuages de points d'entrée. Notre représentation compacte et interprétable des collections de formes 3D permet d'obtenir des résultats à l'état de l'art de la segmentation sémantique avec peu d'exemples annotés.La troisième contribution développe l'analyse non supervisée pour la décomposition de scans 3D du monde réel en parties interprétables. Nous introduisons un modèle de reconstruction probabiliste permettant de décomposer un nuage de points 3D à l'aide d'un petit ensemble de formes prototypiques apprises. Nous surpassons les méthodes non supervisées les plus récentes en termes de précision de décomposition, tout en produisant des représentations visuellement interprétables. Nous offrons des avantages significatifs par rapport aux approches existantes car notre modèle ne nécessite pas d'annotations lors de l'entraînement.Cette thèse présente également deux jeux de données annotés du monde réel en accès libre, HelixNet et Earth Parser Dataset, acquis respectivement avec des LiDAR terrestres et aériens. HelixNet est le plus grand jeu de données LiDAR de conduite autonome avec des annotations denses, et fournit les métadonnées du capteur pour chaque points, cruciales pour mesurer précisément la latence des méthodes de segmentation sémantique. Le Earth Parser Dataset se compose de sept scènes LiDAR aériennes, qui peuvent être utilisées pour évaluer les performances des techniques de traitement 3D dans divers environnements.Nous espérons que ces jeux de données, et ces méthodes fiables tenant compte des spécificités des acquisitions dans le monde réel, encourageront la poursuite de la recherche vers des modèles plus efficaces et plus interprétables
This thesis explores new deep-learning approaches for modeling and analyzing real-world 3D data. 3D data processing is helpful for numerous high-impact applications such as autonomous driving, territory management, industry facilities monitoring, forest inventory, and biomass measurement. However, annotating and analyzing 3D data can be demanding. Specifically, matching constraints regarding computing resources or annotation efficiency is often challenging. The difficulty of interpreting and understanding the inner workings of deep learning models can also limit their adoption.The computer vision community has made significant efforts to design methods to analyze 3D data, to perform tasks such as shape classification, scene segmentation, and scene decomposition. Early automated analysis relied on hand-crafted descriptors and incorporated prior knowledge about real-world acquisitions. Modern deep learning techniques demonstrate the best performances but are often computationally expensive, rely on large annotated datasets, and have low interpretability. In this thesis, we propose contributions that address these limitations.The first contribution of this thesis is an efficient deep-learning architecture for analyzing LiDAR sequences in real time. Our approach explicitly considers the acquisition geometry of rotating LiDAR sensors, which many autonomous driving perception pipelines use. Compared to previous work, which considers complete LiDAR rotations individually, our model processes the acquisition in smaller increments. Our proposed architecture achieves accuracy on par with the best methods while reducing processing time by more than five times and model size by more than fifty times.The second contribution is a deep learning method to summarize extensive 3D shape collections with a small set of 3D template shapes. We learn end-to-end a small number of 3D prototypical shapes that are aligned and deformed to reconstruct input point clouds. The main advantage of our approach is that its representations are in the 3D space and can be viewed and manipulated. They constitute a compact and interpretable representation of 3D shape collections and facilitate annotation, leading to emph{state-of-the-art} results for few-shot semantic segmentation.The third contribution further expands unsupervised analysis for parsing large real-world 3D scans into interpretable parts. We introduce a probabilistic reconstruction model to decompose an input 3D point cloud using a small set of learned prototypical shapes. Our network determines the number of prototypes to use to reconstruct each scene. We outperform emph{state-of-the-art} unsupervised methods in terms of decomposition accuracy while remaining visually interpretable. We offer significant advantages over existing approaches as our model does not require manual annotations.This thesis also introduces two open-access annotated real-world datasets, HelixNet and the Earth Parser Dataset, acquired with terrestrial and aerial LiDARs, respectively. HelixNet is the largest LiDAR autonomous driving dataset with dense annotations and provides point-level sensor metadata crucial for precisely measuring the latency of semantic segmentation methods. The Earth Parser Dataset consists of seven aerial LiDAR scenes, which can be used to evaluate 3D processing techniques' performances in diverse environments.We hope that these datasets and reliable methods considering the specificities of real-world acquisitions will encourage further research toward more efficient and interpretable models
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Bougrain, Laurent. "Étude de la construction par réseaux neuromimétiques de représentations interprétables : application à la prédiction dans le domaine des télécommunications". Nancy 1, 2000. http://www.theses.fr/2000NAN10241.

Texto completo
Resumen
Les réseaux de neurones artificiels sont de bons outils de modélisation ( efficaces, facilement adaptables et rapides) mais ils ont la réputation d'être difficiles à interpréter et sont généralement comparés à des boîtes noires dont il n'est pas facile de comprendre l'organisation interne, pourtant responsable de leurs bonnes performances. Pour obtenir une meilleure compréhension du fonctionnement des réseaux connexionnistes et une validation de leur utilisation en tant qu'outils d'acquisition de connaissances, nous avons, dans un premier temps, réuni divers travaux théoriques pour montrer les points communs existant entre certaisn réseaux de neurones classiques et des méthodes statistiques de régression et d'analyses de données. Dans un deuxième temps et à la lumière de ce qui précède, nous avons expliqué les particularités de réseaux connexionnistes plus complexes, tels que des réseaux dynamiques ou modulaires, afin d'exploiter leurs avantages respectifs en concevant un nouveau modèle d'extraction de connaissances adapté à la complexité du phénomène à modéliser. Les réseaux connexionnistes que nous avons réunis et interprétés et le modèle que nous avons développé peuvent, à partir des données, enrichir la compréhension du phénomène en analysant et en organisant les informations par rapport à la tâche à accomplir comme nous l'illustrons à travers une application de prédiction dans le domaine des télécommunications où la connaissance du domaine ne suffit pas à modéliser correctement le phénomène. Les possibilités d'application de notre travail sont donc larges et s'inscrivent dans le cadre de la fouille de données et dans le domaine des sciences cognitives
Artificial neural networks constitute good tools for certain types of computational modelling (being potentially efficient, easy to adapt and fast). However, they are often considered difficult to interpret, and are sometimes treated as black boxes. However, whilst this complexity implies that it is difficult to understand the internal organization that develops through learning, it usually encapsulates one of the key factors for obtaining good results. First, to yield a better understanding of how artificial neural networks behave and to validate their use as knowledge discovery tools, we have examined various theoretical works in order to demonstrate the common principles underlying both certain classical artificial neural network, and statistical methods for regression and data analysis. Second, in light of these studies, we have explained the specificities of some more complex artificial neural networks, such as dynamical and modular networks, in order to exploit their respective advantages in constructing a revised model for knowledge extraction, adjusted to the complexity of the phenomena we want to model. The artificial neural networks we have combined (and the subsequent model we developed) can, starting from task data, enhance the understanding of the phenomena modelled through analysing and organising the information for the task. We demonstrate this in a practical prediction task for telecommunication, where the general domain knowledge alone is insufficient to model the phenomena satisfactorily. This leads us to conclude that the possibility for practical application of out work is broad, and that our methods can combine with those already existing in the data mining and the cognitive sciences
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Condevaux, Charles. "Méthodes d'apprentissage automatique pour l'analyse de corpus jurisprudentiels". Thesis, Nîmes, 2021. http://www.theses.fr/2021NIME0008.

Texto completo
Resumen
Les décisions de justice contiennent des informations déterministes (dont le contenu est récurrent d'une décision à une autre) et des informations aléatoires (à caractère probabiliste). Ces deux types d'information rentrent en ligne de compte dans la prise de décision d’un juge. Les premières peuvent la conforter dans la mesure où l’information déterministe est un élément récurrent et bien connu de la jurisprudence (i.e. des résultats d’affaires passées). Les secondes, apparentées à des caractères rares ou exceptionnels, peuvent rendre la prise de décision difficile et peuvent elles-mêmes modifier la jurisprudence. L’objet de cette thèse est de proposer un modèle d’apprentissage profond mettant en évidence ces deux types d’information afin d’en étudier leur impact (contribution) dans la prise de décision d’un juge. L'objectif est d’analyser des décisions similaires, de mettre en évidence les informations aléatoires et déterministes dans un corpus de décisions et de quantifier leur importance dans le processus de jugement
Judicial decisions contain deterministic information (whose content is recurrent from one decision to another) and random information (probabilistic). Both types of information come into play in a judge's decision-making process. The former can reinforce the decision insofar as deterministic information is a recurring and well-known element of case law (ie past business results). The latter, which are related to rare or exceptional characters, can make decision-making difficult, since they can modify the case law. The purpose of this thesis is to propose a deep learning model that would highlight these two types of information and study their impact (contribution) in the judge’s decision-making process. The objective is to analyze similar decisions in order to highlight random and deterministic information in a body of decisions and quantify their importance in the judgment process
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Nicolaï, Alice. "Interpretable representations of human biosignals for individual longitudinal follow-up : application to postural control follow-up in medical consultation". Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5224.

Texto completo
Resumen
Le suivi longitudinal individuel, dont l'objectif est de suivre l'évolution de l'état d'un individu au cours du temps, est au cœur de nombreuses problématiques de santé publique, particulièrement dans le domaine de la prévention médicale. L'accès croissant à des capteurs non invasifs permettant de mesurer divers bio-signaux (glycémie, fréquence cardiaque, mouvements des yeux, etc.) a encouragé la quantification de la physiologie, de la sensorimotricité ou du comportement humain dans le but de construire des marqueurs pour le suivi individuel. Cet objectif soulève toutefois plusieurs difficultés liées à la modélisation des signaux. Ce type particulier de données est en effet complexe à interpréter tel quel, et, a fortiori, à comparer au cours du temps. Dans cette thèse nous étudions la question de la représentation interprétable des bio-signaux pour le suivi longitudinal à travers la problématique du suivi de l'équilibre en consultation médicale. Cette problématique a des implications déterminantes dans la prévention des chutes et de la fragilité chez les personnes âgées. Nous nous focalisons en particulier sur l'utilisation des plateformes de force, qui sont communément utilisées pour enregistrer des mesures de posturographie, et peuvent être facilement déployées dans le contexte clinique grâce au développement de plateformes peu onéreuses comme la Wii Balance Board. Pour cette application particulière, nous étudions les avantages et les inconvénients de l'utilisation de méthodes d'extraction de caractéristiques ou de la recherche d'un modèle génératif des trajectoires. Nos contributions incluent premièrement la revue et l'étude d'un large ensemble de variables qui sont utilisées pour évaluer le risque de chute chez les personnes âgées, dérivées de la trajectoire du centre de pression (CoP). Ce signal est couramment analysé dans la littérature clinique pour inférer des informations sur le contrôle de l'équilibre. Ensuite, nous développons un nouveau modèle génératif, "Total Recall", basé sur un précédent modèle stochastique du CoP, qui s'est avéré reproduire plusieurs caractéristiques des trajectoires mais n'intègre pas la dynamique entre le CoP et le centre de masse (CoM) -- une dynamique considérée centrale dans le contrôle moteur de la posture. Par ailleurs, la comparaison des méthodes fréquemment utilisées pour l'estimation du CoM en équilibre statique debout permet de conclure qu'il est possible d'obtenir une estimation précise avec la Wii Balance Board. Les résultats montrent la pertinence potentielle du modèle Total Recall pour le suivi longitudinal du contrôle postural dans un contexte clinique. Dans l'ensemble, nous soulignons l'avantage d'utiliser des modèles génératifs, tout en mettant en évidence la complémentarité des deux approches, extraction de caractéristiques et modèles génératifs. En outre, cette thèse s'intéresse à l'apprentissage de représentations sur des données labellisées et adaptées à un objectif particulier de suivi. Nous introduisons de nouveaux algorithmes de classification qui tirent avantage des connaissances a priori pour améliorer les performances tout en conservant une interprétabilité complète. Notre approche s'appuie sur des algorithmes intrinsèquement interprétables et une régularisation sur l'espace des modèles basée sur des heuristiques médicales. Cette méthode est appliquée à la quantification du risque de chute et de la fragilité. Cette thèse défend l'importance de la recherche de méthodes interprétables, conçues pour des applications spécifiques et intégrant des a-priori fondés sur des connaissances expertes. Ces approches montrent des résultats positifs pour l'intégration des bio-signaux sélectionnés et de méthodes d'apprentissage statistique dans le cadre du suivi longitudinal du contrôle postural
Individual longitudinal follow-up, which aims at following the evolution of an individual state in time, is at the heart of numerous public health issues, particularly in the field of medical prevention. The increasing availability of non-invasive sensors that record various biosignals (e.g., blood glucose, heart rate, eye movements), has encouraged the quantification of human physiology, sensorimotricity, or behavior with the purpose of deriving markers for individual follow-up. This objective raises however several challenges related to signal modelling. Indeed, this particular type of data is complex to interpret, and, a fortiori, to compare across time. This thesis studies the issue of extracting interpretable representations from biosignals through the problematic of balance control follow-up in medical consultation, which has crucial implications for the prevention of falls and frailty in older adults. We focus in particular on the use of force platforms, which are commonly used to record posturography measures, and can be easily deployed in the clinical setting thanks to the development of low cost platforms such as the Wii Balance Board. For this particular application, we investigate the pros and cons of using feature extraction methods or alternatively searching for a generative model of the trajectories. Our contributions include first the review and study of a wide range of state-of-the-art variables that are used to assess fall risk in older adults, derived from the center of pressure (CoP) trajectory. This signal is commonly analyzed in the clinical literature to infer information about balance control. Secondly, we develop a new generative model, ``Total Recall'', based on a previous stochastic model of the CoP, which has shown to reproduce several characteristics of the trajectories but does not integrate the dynamic between the CoP and the center of mass (CoM) -- a dynamic which is considered to be central in postural control. We also review and compare the main methods of estimation of the CoM in quiet standing and conclude that it is possible to obtain an accurate estimation using the Wii Balance Board. The results show the potential relevance of the Total Recall model for the longitudinal follow-up of postural control in a clinical setting. Overall, we highlight the benefit of using generative models, while pointing out the complementarity of features-based and generative-based approachs. Furthermore, this thesis is interested in introducing representations learned on labeled data and tailored for a particular objective of follow-up. We propose new classification algorithms that take advantage of a priori knowledge to improve performances while maintaining complete interpretability. Our approach relies on bagging-based algorithms that are intrinsically interpretable, and a model-space regularization based on medical heuristics. The method is applied to the quantification of fall risk and frailty. This dissertation argues for the importance of researching interpretable methods, designed for specific applications, and incorporating a-priori based on expert knowledge. This approach shows positive results for the integration of the selected biosignals and statistical learning methods in the longitudinal follow-up of postural control. The results encourage the continuation of this work, the further development of the methods, especially in the context of other types of follow-up such as continuous monitoring, and the extension to the study of new biosignals
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía