Academic literature on the topic 'Explicabilidad'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Explicabilidad.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Journal articles on the topic "Explicabilidad"
Ortiz de Zárate Alcarazo, Lucía. "Explicabilidad (de la inteligencia artificial)." EUNOMÍA. Revista en Cultura de la Legalidad, no. 22 (March 23, 2022): 328–44. http://dx.doi.org/10.20318/eunomia.2022.6819.
Full textGarcía Marzá, Domingo. "Ética digital discursiva: de la explicabilidad a la participación." Daimon, no. 90 (September 1, 2023): 99–114. http://dx.doi.org/10.6018/daimon.562821.
Full textBlázquez Ruiz, F. Javier. "paradoja de la transparencia en la IA." Revista Internacional de Pensamiento Político 17 (December 27, 2022): 261–72. http://dx.doi.org/10.46661/revintpensampolit.7526.
Full textCastellanos Claramunt, Jorge. "Sobre los desafíos constitucionales ante el avance de la Inteligencia Artificial. Una perspectiva nacional y comparada." Revista de Derecho Político, no. 118 (December 3, 2023): 261–87. http://dx.doi.org/10.5944/rdp.118.2023.39105.
Full textRivas Vallejo, Pilar. "Sesgos de género en el uso de inteligencia artificial para la gestión de las relaciones laborales: análisis desde el derecho antidiscriminatorio." E-REVISTA INTERNACIONAL DE LA PROTECCION SOCIAL 7, no. 1 (2022): 52–83. http://dx.doi.org/10.12795/e-rips.2022.i01.04.
Full textFernández-Aller, Celia, and María Mercedes Serrano Pérez. "¿Es posible una Inteligencia artificial respetuosa con la protección de datos?" Doxa. Cuadernos de Filosofía del Derecho, no. 45 (June 7, 2022): 307. http://dx.doi.org/10.14198/doxa2022.45.11.
Full textAzuaje Pirela, Michelle. "Propiedad intelectual como herramienta para promover la transparencia y prevenir la discriminación algorítmica." Revista Chilena de Derecho y Tecnología 12 (September 4, 2023): 1–34. http://dx.doi.org/10.5354/0719-2584.2023.70131.
Full textSáez Lara, Carmen. "Gestión algorítmica empresarial y tutela colectiva de los derechos laborales." Cuadernos de Relaciones Laborales 40, no. 2 (July 22, 2022): 283–300. http://dx.doi.org/10.5209/crla.79417.
Full textSanahuja Sanahuja, Rosana, and Pablo López Rabadán. "Ética y uso periodístico de la inteligencia artificial. Los medios públicos y las plataformas de verificación como precursores de la rendición de cuentas en España." Estudios sobre el Mensaje Periodístico 28, no. 4 (December 21, 2022): 959–70. http://dx.doi.org/10.5209/esmp.82385.
Full textMonfort Mir, Vicente M. "Recursos y capacidades de la hotelería del litoral." Revista de Estudios Turísticos, no. 143 (September 11, 2023): 25–63. http://dx.doi.org/10.61520/et.1432000.829.
Full textDissertations / Theses on the topic "Explicabilidad"
Cárdenas, Chapellín Julio José. "Inversion of geophysical data by deep learning." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS185.
Full textThis thesis presents the characterization ofmagnetic anomalies using convolutional neural networks, and the application of visualization tools to understand and validate their predictions. The developed approach allows the localization of magnetic dipoles, including counting the number of dipoles, their geographical position, and the prediction of their parameters (magnetic moment, depth, and declination). Our results suggest that the combination of two deep learning models, "YOLO" and "DenseNet", performs best in achieving our classification and regression goals. Additionally, we applied visualization tools to understand our model’s predictions and its working principle. We found that the Grad-CAM tool improved prediction performance by identifying several layers that had no influence on the prediction and the t-SNE tool confirmed the good ability of our model to differentiate among different parameter combinations. Then, we tested our model with real data to establish its limitations and application domain. Results demonstrate that our model detects dipolar anomalies in a real magnetic map even after learning from a synthetic database with a lower complexity, which indicates a significant generalization capability. We also noticed that it is not able to identify dipole anomalies of shapes and sizes different from those considered for the creation of the synthetic database. Our current work consists in creating new databases by combining synthetic and real data to compare their potential influence in improving predictions. Finally, the perspectives of this work consist in validating the operational relevance and adaptability of our model under realistic conditions and in testing other applications with alternative geophysical methods
Esta tesis presenta la caracterización de anomalías magnéticas mediante redes neuronales convolucionales, y la aplicación de herramientas de visualización para entender y validar sus predicciones. El enfoque desarrollado permite la localización de dipolos magnéticos, incluyendo el recuento delnúmero de dipolos, su posición geográfica y la predicción de sus parámetros (momento magnético, profundidad y declinación). Nuestros resultados sugieren que la combinación de dos modelos de aprendizaje profundo, "YOLO" y "DenseNet", es la que mejor se ajusta a nuestros objetivos de clasificación y regresión. Adicionalmente, aplicamos herramientas de visualización para entender las predicciones de nuestromodelo y su principio de funcionamiento. Descubrimos que la herramienta Grad-CAM mejoraba el rendimiento de la predicción al identificar varias capas que no influían enla predicción y la herramienta t-SNE confirmaba la buena capacidad de nuestro modelo para diferenciar entre distintas combinaciones de parámetros. Seguidamente, probamos nuestro modelo con datos reales para establecer sus limitaciones y su rango de aplicación. Los resultados demuestran quenuestro modelo detecta anomalías dipolares en unmapa magnético real incluso después de aprender de una base de datos sintética con una complejidad menor, lo que indica una capacidad de generalización significativa. También observamos que no es capaz de identificar anomalías dipolares de formas y tamaños diferentes a los considerados para la creación de la base de datos sintética. Nuestro trabajo actual consiste en crear nuevas bases de datos combinando datos sintéticos y reales para comparar su posible influencia en la mejora de las predicciones. Por último, las perspectivas de este trabajo consisten en validar la pertinencia operativa y la adaptabilidad de nuestro modelo en condiciones realistas y en probar otras aplicaciones con métodos geofísicos alternativos
Sousa, Maria João Coelho de. "On the explainability of multiple sclerosis disease progression models." Master's thesis, 2021. http://hdl.handle.net/10316/98143.
Full textEsclerose múltipla ́e a doença neurológica predominante em jovens adultos globalmente. A complexidade e heterogeneidade da sua progressão, e o consequente desafio de um prognóstico adequado, levaram à criação de modelos de Machine learning (ML), capazes de fornecer um prognóstico auxiliado por computador. No entanto, os modelos desenvolvidos podem não oferecer garantias de confiança ou segurança que promovam a sua aplicação em contexto clínico. Explicabilidade é um conceito recente que visa criar explicações compreensíveis sobre os modelos de ML, para ajudar a mitigar a desconfiança associada à falta de informação sobre a lógica dos mesmos. O objetivo deste projeto ́e compreender se os modelos desenvolvidos por Pinto et al.[81], que preveem a progressão da doença, podem ser aplicados em ambiente clínico, e que tipo de explicações adicionais podem ajudar a atingir esse objetivo. Nesta dissertação de mestrado, vários métodos de explicabilidade foram desenvolvidos para gerar explicações humanamente compreensíveis sobre os modelos de previsão. As explicações continham informações gerais sobre os modelos, e o estudo de previsões de doentes específicos. Os resultados foram avaliados qualitativamente, com base na teoria fundamentada, através de entrevistas com cientistas de dados. As explicações mostraram que, geralmente, a escala de quantificação da condição neurológica (EDSS) e os Scores de alguns sistemas funcionais, nomeadamente os sistemas piramidal, cerebelar e mental, tiveram maior relevância nas previsões. A análise dos cientistas de dados sugeriu que os métodos de explicabilidade mais adequados para apoiar os modelos de previsão eram o poder preditivo de Pinto et al.[81], permutation feature importance, os partial dependence plots (PDPs), e os valores de Shapley.
Multiple Sclerosis (MS) is the neurological disease most prevalent in young adultsworldwide. The complexity and heterogeneity of its progression and consequentchallenge of an adequate prognosis have led to the creation of ML models capableof providing a computer-aided prediction. However, the developed models may notoffer trust or safety guarantees that promote their application in a clinical context.Explainability is a recent field of study that aims to create human-comprehensibleexplanations about ML models to help mitigate the doubts associated with the lackof information about the models’ logic.The goal of this project is to understand if the models developed by Pinto et al.[81], that predict the progression of the disease, are able to be applied in a clinicalenvironment, and what type of additional explanations can help to achieve thatobjective.In this master thesis, several explainability methods were developed to producehuman-comprehensible explanations about the prediction models. The explanationscontained general information about the framework and analysis of specific patientpredictions. Then, these results were qualitatively evaluated through interviewswith data scientists that were analysed based on the Grounded Theory (GT).The explanations showed that, in general, the Expanded disability status scale(EDSS) and the scores of some Functional Systems (FS), namely the pyramidal,cerebellar, and mental systems, had the most predictive relevance. The analysis bythe data scientists suggested that the explainability methods most suited to supportthe prediction models were the predictive power by Pinto et al. [81], the permutationfeature importance, the PDP, and the Shapley Values.
Book chapters on the topic "Explicabilidad"
VILELA, N. A. L., and T. M. FERREIRA. "O DIREITO À EXPLICABILIDADE FRENTE À INTELIGÊNCIA ARTIFICIAL." In Desafios legais - uma abordagem multidisciplinar - Volume 2. Dialética, 2024. http://dx.doi.org/10.48021/978-65-270-1483-6-c16.
Full textFidalgo, Luiza Barreto Braga. "Interfaces entre o acesso à justiça e discriminações algorítmicas: desigualdades sociais, racismo e sexismo nas relações laborais." In O uso de dados pessoais e inteligência artificial na relação de trabalho, 323–52. Ministério Público do Trabalho, 2022. http://dx.doi.org/10.51366/978-65-89468-23-3-cap13.
Full textPádua, Sérgio. "INTELIGÊNCIA ARTIFICIAL JUDICIAL E EXPLICABILIDADE: AS RAZÕES PÚBLICAS E A JUSTIÇA “EX MACHINA”." In Anais da VIII Jornada da Rede Interamericana de Direitos Fundamentais e Democracia (2021). Volume I, 629–49. Editora Fundação Fênix, 2021. http://dx.doi.org/10.36592/9786581110468-32.
Full textCUNHA, M. M. F. "A RELEVÂNCIA DO DIREITO À EXPLICABILIDADE DAS DECISÕES JUDICIAIS AUXILIADAS POR INTELIGÊNCIA ARTIFICIAL." In Questões atuais em Direito Processual: perspectivas teóricas e contribuições práticas: Volume 3. Dialética, 2023. http://dx.doi.org/10.48021/978-65-252-6950-4-c3.
Full textMarques, Júlio, Clésio Gonçalves, Pablo Vieira, Armando Borges, Viviane Dias, Willians Santos, and Romuere Silva. "Explorando a Explicabilidade da Inteligência Artificial - Técnicas para Compreender e Interpretar Modelos de Aprendizado de Máquina." In Minicursos do XVI Encontro Unificado de Computação do Piauí (ENUCOMPI) e Semana Nacional de Ciência e Tecnologia (SNCT), 25–43. SBC, 2023. http://dx.doi.org/10.5753/sbc.13259.2.2.
Full textConference papers on the topic "Explicabilidad"
Moreira, Gabriel Menezes, and Raimundo Santos Moura. "Explicabilidade de modelos para Avaliação Automática de Redações." In Encontro Unificado de Computação do Piauí. Sociedade Brasileira de Computação, 2023. http://dx.doi.org/10.5753/enucompi.2023.26624.
Full textRamon Gomes Durães, Turíbio Tanus Salis, Frederico Gualberto Ferreira Coelho, and Antônio de Pádua Braga. "Análise de Explicabilidade de um Modelo de Aprendizado de Máquina para Aplicações Industriais." In XXIV Congresso Brasileiro de Automática. Fortaleza - CE, Brasil: SBA Sociedade Brasileira de Automática, 2022. http://dx.doi.org/10.20906/cba2022/3281.
Full textRodrigues, Lucas, Leandro Coelho, and Viviana Mariani. "nálise de classificadores otimizando hiperparâmetros e reduzindo a dimensionalidade aplicados na detecção de apneia do sono." In Congresso Brasileiro de Inteligência Computacional. SBIC, 2024. http://dx.doi.org/10.21528/cbic2023-075.
Full textTeixeira, Raphael Lobato Collet Janny. "Diretrizes Ético-Jurídicas para o Design e Uso de Inteligência Artificial na Administração Pública." In Workshop sobre as Implicações da Computação na Sociedade. Sociedade Brasileira de Computação, 2023. http://dx.doi.org/10.5753/wics.2023.229812.
Full textSilva, Rodrigo F., and Luiz Gomes-Jr. "Python OAM: apresentação e uso de uma biblioteca de explicabilidade para processos de detecção de outliers." In Simpósio Brasileiro de Banco de Dados. Sociedade Brasileira de Computação - SBC, 2022. http://dx.doi.org/10.5753/sbbd_estendido.2022.21846.
Full textMagnus, Tiago de Carvalho, and Jéferson de Campos Nobre. "Impacto da criptografia da camada de transporte em análises de fluxos com aprendizado de máquina." In Simpósio Brasileiro de Segurança da Informação e de Sistemas Computacionais. Sociedade Brasileira de Computação - SBC, 2023. http://dx.doi.org/10.5753/sbseg.2023.233560.
Full textde Sousa, Thiago Monteles, Amanda Bueno de Moraes, Warde Antonieta da Fonseca Zang, and Regina Célia Bueno da Fonseca. "Avaliação estatística dos fatores cruciais nos parâmetros de qualidade da água no reservatório João Leite, Goiás." In Escola Regional de Informática de Goiás. Sociedade Brasileira de Computação, 2023. http://dx.doi.org/10.5753/erigo.2023.237318.
Full textCosta, Herbert da Silva, Anderson Cordeiro Cardoso, Cristiane Mendes Netto, David Correa Martins-Jr, and Sérgio Nery Simões. "A Framework for prediction of dropout in distance learning through XAI techniques in Virtual Learning Environment." In Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2022. http://dx.doi.org/10.5753/eniac.2022.227586.
Full textViana, Henrique E., Cesar A. Tacla, and Jean M. Simão. "Computational implementation of an explainable state machine-based agent." In Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2023. http://dx.doi.org/10.5753/eniac.2023.234005.
Full textAleixo, Robson, Fabio Kon, and Raphael Y. de Camargo. "Predição de Surtos de Dengue e Diagnóstico de Sífilis Congênita Utilizando Aprendizado de Máquina." In Anais Estendidos do Simpósio Brasileiro de Computação Aplicada à Saúde. Sociedade Brasileira de Computação (SBC), 2023. http://dx.doi.org/10.5753/sbcas_estendido.2023.229432.
Full text