Littérature scientifique sur le sujet « Explicabilidad »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Explicabilidad ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Explicabilidad"
Ortiz de Zárate Alcarazo, Lucía. « Explicabilidad (de la inteligencia artificial) ». EUNOMÍA. Revista en Cultura de la Legalidad, no 22 (23 mars 2022) : 328–44. http://dx.doi.org/10.20318/eunomia.2022.6819.
Texte intégralGarcía Marzá, Domingo. « Ética digital discursiva : de la explicabilidad a la participación ». Daimon, no 90 (1 septembre 2023) : 99–114. http://dx.doi.org/10.6018/daimon.562821.
Texte intégralBlázquez Ruiz, F. Javier. « paradoja de la transparencia en la IA ». Revista Internacional de Pensamiento Político 17 (27 décembre 2022) : 261–72. http://dx.doi.org/10.46661/revintpensampolit.7526.
Texte intégralCastellanos Claramunt, Jorge. « Sobre los desafíos constitucionales ante el avance de la Inteligencia Artificial. Una perspectiva nacional y comparada ». Revista de Derecho Político, no 118 (3 décembre 2023) : 261–87. http://dx.doi.org/10.5944/rdp.118.2023.39105.
Texte intégralRivas Vallejo, Pilar. « Sesgos de género en el uso de inteligencia artificial para la gestión de las relaciones laborales : análisis desde el derecho antidiscriminatorio. » E-REVISTA INTERNACIONAL DE LA PROTECCION SOCIAL 7, no 1 (2022) : 52–83. http://dx.doi.org/10.12795/e-rips.2022.i01.04.
Texte intégralFernández-Aller, Celia, et María Mercedes Serrano Pérez. « ¿Es posible una Inteligencia artificial respetuosa con la protección de datos ? » Doxa. Cuadernos de Filosofía del Derecho, no 45 (7 juin 2022) : 307. http://dx.doi.org/10.14198/doxa2022.45.11.
Texte intégralAzuaje Pirela, Michelle. « Propiedad intelectual como herramienta para promover la transparencia y prevenir la discriminación algorítmica ». Revista Chilena de Derecho y Tecnología 12 (4 septembre 2023) : 1–34. http://dx.doi.org/10.5354/0719-2584.2023.70131.
Texte intégralSáez Lara, Carmen. « Gestión algorítmica empresarial y tutela colectiva de los derechos laborales ». Cuadernos de Relaciones Laborales 40, no 2 (22 juillet 2022) : 283–300. http://dx.doi.org/10.5209/crla.79417.
Texte intégralSanahuja Sanahuja, Rosana, et Pablo López Rabadán. « Ética y uso periodístico de la inteligencia artificial. Los medios públicos y las plataformas de verificación como precursores de la rendición de cuentas en España ». Estudios sobre el Mensaje Periodístico 28, no 4 (21 décembre 2022) : 959–70. http://dx.doi.org/10.5209/esmp.82385.
Texte intégralMonfort Mir, Vicente M. « Recursos y capacidades de la hotelería del litoral ». Revista de Estudios Turísticos, no 143 (11 septembre 2023) : 25–63. http://dx.doi.org/10.61520/et.1432000.829.
Texte intégralThèses sur le sujet "Explicabilidad"
Cárdenas, Chapellín Julio José. « Inversion of geophysical data by deep learning ». Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS185.
Texte intégralThis thesis presents the characterization ofmagnetic anomalies using convolutional neural networks, and the application of visualization tools to understand and validate their predictions. The developed approach allows the localization of magnetic dipoles, including counting the number of dipoles, their geographical position, and the prediction of their parameters (magnetic moment, depth, and declination). Our results suggest that the combination of two deep learning models, "YOLO" and "DenseNet", performs best in achieving our classification and regression goals. Additionally, we applied visualization tools to understand our model’s predictions and its working principle. We found that the Grad-CAM tool improved prediction performance by identifying several layers that had no influence on the prediction and the t-SNE tool confirmed the good ability of our model to differentiate among different parameter combinations. Then, we tested our model with real data to establish its limitations and application domain. Results demonstrate that our model detects dipolar anomalies in a real magnetic map even after learning from a synthetic database with a lower complexity, which indicates a significant generalization capability. We also noticed that it is not able to identify dipole anomalies of shapes and sizes different from those considered for the creation of the synthetic database. Our current work consists in creating new databases by combining synthetic and real data to compare their potential influence in improving predictions. Finally, the perspectives of this work consist in validating the operational relevance and adaptability of our model under realistic conditions and in testing other applications with alternative geophysical methods
Esta tesis presenta la caracterización de anomalías magnéticas mediante redes neuronales convolucionales, y la aplicación de herramientas de visualización para entender y validar sus predicciones. El enfoque desarrollado permite la localización de dipolos magnéticos, incluyendo el recuento delnúmero de dipolos, su posición geográfica y la predicción de sus parámetros (momento magnético, profundidad y declinación). Nuestros resultados sugieren que la combinación de dos modelos de aprendizaje profundo, "YOLO" y "DenseNet", es la que mejor se ajusta a nuestros objetivos de clasificación y regresión. Adicionalmente, aplicamos herramientas de visualización para entender las predicciones de nuestromodelo y su principio de funcionamiento. Descubrimos que la herramienta Grad-CAM mejoraba el rendimiento de la predicción al identificar varias capas que no influían enla predicción y la herramienta t-SNE confirmaba la buena capacidad de nuestro modelo para diferenciar entre distintas combinaciones de parámetros. Seguidamente, probamos nuestro modelo con datos reales para establecer sus limitaciones y su rango de aplicación. Los resultados demuestran quenuestro modelo detecta anomalías dipolares en unmapa magnético real incluso después de aprender de una base de datos sintética con una complejidad menor, lo que indica una capacidad de generalización significativa. También observamos que no es capaz de identificar anomalías dipolares de formas y tamaños diferentes a los considerados para la creación de la base de datos sintética. Nuestro trabajo actual consiste en crear nuevas bases de datos combinando datos sintéticos y reales para comparar su posible influencia en la mejora de las predicciones. Por último, las perspectivas de este trabajo consisten en validar la pertinencia operativa y la adaptabilidad de nuestro modelo en condiciones realistas y en probar otras aplicaciones con métodos geofísicos alternativos
Sousa, Maria João Coelho de. « On the explainability of multiple sclerosis disease progression models ». Master's thesis, 2021. http://hdl.handle.net/10316/98143.
Texte intégralEsclerose múltipla ́e a doença neurológica predominante em jovens adultos globalmente. A complexidade e heterogeneidade da sua progressão, e o consequente desafio de um prognóstico adequado, levaram à criação de modelos de Machine learning (ML), capazes de fornecer um prognóstico auxiliado por computador. No entanto, os modelos desenvolvidos podem não oferecer garantias de confiança ou segurança que promovam a sua aplicação em contexto clínico. Explicabilidade é um conceito recente que visa criar explicações compreensíveis sobre os modelos de ML, para ajudar a mitigar a desconfiança associada à falta de informação sobre a lógica dos mesmos. O objetivo deste projeto ́e compreender se os modelos desenvolvidos por Pinto et al.[81], que preveem a progressão da doença, podem ser aplicados em ambiente clínico, e que tipo de explicações adicionais podem ajudar a atingir esse objetivo. Nesta dissertação de mestrado, vários métodos de explicabilidade foram desenvolvidos para gerar explicações humanamente compreensíveis sobre os modelos de previsão. As explicações continham informações gerais sobre os modelos, e o estudo de previsões de doentes específicos. Os resultados foram avaliados qualitativamente, com base na teoria fundamentada, através de entrevistas com cientistas de dados. As explicações mostraram que, geralmente, a escala de quantificação da condição neurológica (EDSS) e os Scores de alguns sistemas funcionais, nomeadamente os sistemas piramidal, cerebelar e mental, tiveram maior relevância nas previsões. A análise dos cientistas de dados sugeriu que os métodos de explicabilidade mais adequados para apoiar os modelos de previsão eram o poder preditivo de Pinto et al.[81], permutation feature importance, os partial dependence plots (PDPs), e os valores de Shapley.
Multiple Sclerosis (MS) is the neurological disease most prevalent in young adultsworldwide. The complexity and heterogeneity of its progression and consequentchallenge of an adequate prognosis have led to the creation of ML models capableof providing a computer-aided prediction. However, the developed models may notoffer trust or safety guarantees that promote their application in a clinical context.Explainability is a recent field of study that aims to create human-comprehensibleexplanations about ML models to help mitigate the doubts associated with the lackof information about the models’ logic.The goal of this project is to understand if the models developed by Pinto et al.[81], that predict the progression of the disease, are able to be applied in a clinicalenvironment, and what type of additional explanations can help to achieve thatobjective.In this master thesis, several explainability methods were developed to producehuman-comprehensible explanations about the prediction models. The explanationscontained general information about the framework and analysis of specific patientpredictions. Then, these results were qualitatively evaluated through interviewswith data scientists that were analysed based on the Grounded Theory (GT).The explanations showed that, in general, the Expanded disability status scale(EDSS) and the scores of some Functional Systems (FS), namely the pyramidal,cerebellar, and mental systems, had the most predictive relevance. The analysis bythe data scientists suggested that the explainability methods most suited to supportthe prediction models were the predictive power by Pinto et al. [81], the permutationfeature importance, the PDP, and the Shapley Values.
Chapitres de livres sur le sujet "Explicabilidad"
VILELA, N. A. L., et T. M. FERREIRA. « O DIREITO À EXPLICABILIDADE FRENTE À INTELIGÊNCIA ARTIFICIAL ». Dans Desafios legais - uma abordagem multidisciplinar - Volume 2. Dialética, 2024. http://dx.doi.org/10.48021/978-65-270-1483-6-c16.
Texte intégralFidalgo, Luiza Barreto Braga. « Interfaces entre o acesso à justiça e discriminações algorítmicas : desigualdades sociais, racismo e sexismo nas relações laborais ». Dans O uso de dados pessoais e inteligência artificial na relação de trabalho, 323–52. Ministério Público do Trabalho, 2022. http://dx.doi.org/10.51366/978-65-89468-23-3-cap13.
Texte intégralPádua, Sérgio. « INTELIGÊNCIA ARTIFICIAL JUDICIAL E EXPLICABILIDADE : AS RAZÕES PÚBLICAS E A JUSTIÇA “EX MACHINA” ». Dans Anais da VIII Jornada da Rede Interamericana de Direitos Fundamentais e Democracia (2021). Volume I, 629–49. Editora Fundação Fênix, 2021. http://dx.doi.org/10.36592/9786581110468-32.
Texte intégralCUNHA, M. M. F. « A RELEVÂNCIA DO DIREITO À EXPLICABILIDADE DAS DECISÕES JUDICIAIS AUXILIADAS POR INTELIGÊNCIA ARTIFICIAL ». Dans Questões atuais em Direito Processual : perspectivas teóricas e contribuições práticas : Volume 3. Dialética, 2023. http://dx.doi.org/10.48021/978-65-252-6950-4-c3.
Texte intégralMarques, Júlio, Clésio Gonçalves, Pablo Vieira, Armando Borges, Viviane Dias, Willians Santos et Romuere Silva. « Explorando a Explicabilidade da Inteligência Artificial - Técnicas para Compreender e Interpretar Modelos de Aprendizado de Máquina ». Dans Minicursos do XVI Encontro Unificado de Computação do Piauí (ENUCOMPI) e Semana Nacional de Ciência e Tecnologia (SNCT), 25–43. SBC, 2023. http://dx.doi.org/10.5753/sbc.13259.2.2.
Texte intégralActes de conférences sur le sujet "Explicabilidad"
Moreira, Gabriel Menezes, et Raimundo Santos Moura. « Explicabilidade de modelos para Avaliação Automática de Redações ». Dans Encontro Unificado de Computação do Piauí. Sociedade Brasileira de Computação, 2023. http://dx.doi.org/10.5753/enucompi.2023.26624.
Texte intégralRamon Gomes Durães, Turíbio Tanus Salis, Frederico Gualberto Ferreira Coelho et Antônio de Pádua Braga. « Análise de Explicabilidade de um Modelo de Aprendizado de Máquina para Aplicações Industriais ». Dans XXIV Congresso Brasileiro de Automática. Fortaleza - CE, Brasil : SBA Sociedade Brasileira de Automática, 2022. http://dx.doi.org/10.20906/cba2022/3281.
Texte intégralRodrigues, Lucas, Leandro Coelho et Viviana Mariani. « nálise de classificadores otimizando hiperparâmetros e reduzindo a dimensionalidade aplicados na detecção de apneia do sono ». Dans Congresso Brasileiro de Inteligência Computacional. SBIC, 2024. http://dx.doi.org/10.21528/cbic2023-075.
Texte intégralTeixeira, Raphael Lobato Collet Janny. « Diretrizes Ético-Jurídicas para o Design e Uso de Inteligência Artificial na Administração Pública ». Dans Workshop sobre as Implicações da Computação na Sociedade. Sociedade Brasileira de Computação, 2023. http://dx.doi.org/10.5753/wics.2023.229812.
Texte intégralSilva, Rodrigo F., et Luiz Gomes-Jr. « Python OAM : apresentação e uso de uma biblioteca de explicabilidade para processos de detecção de outliers ». Dans Simpósio Brasileiro de Banco de Dados. Sociedade Brasileira de Computação - SBC, 2022. http://dx.doi.org/10.5753/sbbd_estendido.2022.21846.
Texte intégralMagnus, Tiago de Carvalho, et Jéferson de Campos Nobre. « Impacto da criptografia da camada de transporte em análises de fluxos com aprendizado de máquina ». Dans Simpósio Brasileiro de Segurança da Informação e de Sistemas Computacionais. Sociedade Brasileira de Computação - SBC, 2023. http://dx.doi.org/10.5753/sbseg.2023.233560.
Texte intégralde Sousa, Thiago Monteles, Amanda Bueno de Moraes, Warde Antonieta da Fonseca Zang et Regina Célia Bueno da Fonseca. « Avaliação estatística dos fatores cruciais nos parâmetros de qualidade da água no reservatório João Leite, Goiás ». Dans Escola Regional de Informática de Goiás. Sociedade Brasileira de Computação, 2023. http://dx.doi.org/10.5753/erigo.2023.237318.
Texte intégralCosta, Herbert da Silva, Anderson Cordeiro Cardoso, Cristiane Mendes Netto, David Correa Martins-Jr et Sérgio Nery Simões. « A Framework for prediction of dropout in distance learning through XAI techniques in Virtual Learning Environment ». Dans Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2022. http://dx.doi.org/10.5753/eniac.2022.227586.
Texte intégralViana, Henrique E., Cesar A. Tacla et Jean M. Simão. « Computational implementation of an explainable state machine-based agent ». Dans Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2023. http://dx.doi.org/10.5753/eniac.2023.234005.
Texte intégralAleixo, Robson, Fabio Kon et Raphael Y. de Camargo. « Predição de Surtos de Dengue e Diagnóstico de Sífilis Congênita Utilizando Aprendizado de Máquina ». Dans Anais Estendidos do Simpósio Brasileiro de Computação Aplicada à Saúde. Sociedade Brasileira de Computação (SBC), 2023. http://dx.doi.org/10.5753/sbcas_estendido.2023.229432.
Texte intégral