Letteratura scientifica selezionata sul tema "IA responsable"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "IA responsable".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "IA responsable"

1

Vuarin, Louis, Pedro Gomes Lopes e David Massé. "L’intelligence artificielle peut-elle être une innovation responsable ?" Innovations N° 72, n. 3 (29 agosto 2023): 103–47. http://dx.doi.org/10.3917/inno.pr2.0153.

Testo completo
Abstract (sommario):
L’intelligence artificielle (IA) représente un défi majeur pour l’innovation responsable (IR) en raison de l’ampleur des transformations sociétales et productives qu’elle induit. L’enjeu de l’inscription de l’IA dans l’innovation responsable ne réside pas tant dans l’absence de concepts théoriques pour guider son développement, mais plutôt dans la multiplication de ces concepts (IA explicable, IA transparente, IA durable, IA juste…) et dans leur discutable propension à se traduire en actions concrètes réellement transformatrices des écosystèmes d’innovations. À partir d’une analyse bibliométrique de la littérature, cet article propose une cartographie des principaux concepts contribuant à inscrire l’IA dans une démarche d’innovation responsable. Les résultats mettent en lumière la difficile articulation des concepts entre eux, notamment au regard de la concurrence entre les acteurs et les dispositifs d’action préconisés. Cette étude contribue à la littérature sur les défis de l’adoption de l’IA et de son inscription dans une démarche d’innovation responsable, elle discute également des risques et opportunités associés à la multiplication de concepts pour inscrire des technologies émergentes dans une démarche d’innovation responsable. Codes JEL : O32, O33
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Daniel, Anne-Solène, e Hugo Velluet. "Numérisation et IA : vers un numérique responsable". Archimag N° 374, n. 4 (10 giugno 2024): 18. http://dx.doi.org/10.3917/arma.374.0018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Navarro Mendizábal, Íñigo. "¿Quién paga los daños que causa la IA? De la ética a la responsabilidad por productos defectuosos". Revista Iberoamericana de Bioética, n. 25 (15 luglio 2024): 01–15. http://dx.doi.org/10.14422/rib.i25.y2024.002.

Testo completo
Abstract (sommario):
La IA ofrece grandes beneficios, pero también puede causar daños, lo que nos debe llevar a reflexionar ética y jurídicamente sobre ella. Desde la reflexión ética surge una conclusión evidente: la IA no debe causar daños y como reverso de lo anterior, si un sistema con IA causa daños habrá que fijar un responsable que indemnice a la víctima de los daños causados. La existencia de esta responsabilidad además fomentará la fabricación de unos sistemas de IA más seguros y confiables. Lamentablemente, la legislación vigente no basta para abordar estos problemas, por lo que hace falta la introducción de nuevas regulaciones. Desde la UE se están abordando estas cuestiones buscando mitigar la dificultad probatoria y estableciendo que el fabricante será el responsable de los productos que incorporan sistemas de IA y que no tienen la seguridad que cabría legítimamente esperar.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Devillers, Laurence. "Le langage non responsable des systèmes d’intelligence artificielle (IA) générative". Champ lacanien N° 28, n. 1 (2 ottobre 2024): 133–38. http://dx.doi.org/10.3917/chla.028.0133.

Testo completo
Abstract (sommario):
Depuis 2022, ChatGPT d’OpenAI a popularisé l’intelligence artificielle (IA), rendant les technologies numériques essentielles. L’IA, qu’elle soit prédictive ou générative, progresse dans des domaines variés comme la médecine et les chatbots. Désormais, certaines actions humaines, comme le langage, sont séparées de l’intelligence réelle. Les IA génératives imitent le langage sans le comprendre, en utilisant des modèles statistiques complexes. Elles peuvent produire des résultats erronés, soulevant des questions éthiques. La transparence des IA est cruciale pour instaurer la confiance, et leur régulation est nécessaire pour concilier technologie et bien-être humain.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Gallardo Daste, Jimmy. "El uso no responsable de la inteligencia artificial en medicina". Metro Ciencia 32, n. 4 (30 novembre 2024): 85–86. https://doi.org/10.47464/metrociencia/vol32/4/2024/85-86.

Testo completo
Abstract (sommario):
La inteligencia artificial (IA) está transformando el campo de la medicina de manera extraordinaria. Desde el diagnóstico asistido por computadora hasta la personalización de tratamientos, la IA promete mejorar los resultados de salud y hacer más eficiente la atención médica. Sin embargo, su adopción también ha suscitado preocupaciones, especialmente en relación con los médicos que utilizan esta tecnología sin verificar adecuadamente los diagnósticos y las fuentes de información. Para los médicos, es fundamental reflexionar sobre las consecuencias de un uso inadecuado de la IA y el impacto negativo que puede tener sobre los pacientes y la práctica profesional a largo plazo.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Herrera Duarte, Leidy Esmeralda. "Los desafíos Éticos y Legales de la Inteligencia Artificial y la Robótica." Estudios y Perspectivas Revista Científica y Académica 2, n. 2 (24 luglio 2022): 115–30. http://dx.doi.org/10.61384/r.c.a..v2i2.26.

Testo completo
Abstract (sommario):
Este trabajo de revisión analiza los desafíos éticos y legales de la inteligencia artificial (IA) y la robótica en los últimos 5 años. Se realizó una revisión sistemática de la literatura en bases de datos como Scopus, Scielo y Latindex, seleccionando artículos de revisión y artículos originales que proporcionaron información valiosa y novedosa sobre los desafíos éticos y legales de la IA y la robótica en diferentes contextos, tanto a nivel global como regional. Se identificaron autores relevantes que enfatizaron la importancia de un enfoque ético y responsable en el diseño y uso de la IA y la robótica, así como la necesidad de políticas y enfoques centrados en las personas para abordar los desafíos éticos y legales de la automatización, el desplazamiento laboral y el uso de la IA y la robótica en diferentes ámbitos. Además, se resaltan las oportunidades y desafíos de la IA y la robótica en la educación y la atención a personas con discapacidad. En conclusión, este trabajo de revisión proporciona una visión general de los desafíos éticos y legales de la IA y la robótica, tanto a nivel global como regional, y destaca la necesidad de un enfoque ético y responsable en el diseño y uso de estas tecnologías emergentes. Los resultados obtenidos en esta revisión de la literatura pueden ser utilizados por investigadores, legisladores y profesionales interesados en abordar los desafíos éticos y legales de la IA y la robótica. En última instancia, se espera que este trabajo de investigación contribuya a un uso más responsable y beneficioso de estas tecnologías emergentes en beneficio de la sociedad y el desarrollo sostenible.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Rentería García, Christian Daniel. "El impacto de la Inteligencia Artificial en la Educación Superior: representaciones sociales y transformación institucional". TIES, Revista de Tecnología e Innovación en Educación Superior, n. 11 (5 dicembre 2024): 53–71. https://doi.org/10.22201/dgtic.26832968e.2024.11.47.

Testo completo
Abstract (sommario):
El artículo analiza las representaciones sociales de los docentes de educación superior sobre el uso de la inteligencia artificial (IA) en sus prácticas pedagógicas. Se realizó un estudio en dos fases: primero, un curso-taller con 50 docentes para evaluar su nivel de conocimiento sobre IA, mostrando que el 71% ya la había utilizado, pero sólo el 50% la aplicaba en la enseñanza. La segunda fase consistió en entrevistas semi estructuradas, organizadas en torno a cuatro ejes: condiciones de producción, campo de información, campo de representación y campo de actitud. Los resultados revelaron que los docentes valoran el potencial de la IA para optimizar la enseñanza y personalizar el aprendizaje, pero expresan preocupaciones sobre la pérdida de habilidades críticas y el impacto en la relación docente-alumno. También destacan la importancia de un uso ético y responsable de la IA, garantizando un acceso equitativo y concluyen que, para una integración efectiva de esta tecnología en la educación, no basta con el conocimiento técnico; es necesaria una formación pedagógica adecuada que aborde tanto los aspectos técnicos como éticos, estructurada en programas que preparen a los docentes para utilizar la IA de manera efectiva y responsable en sus prácticas educativas.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Hernández-Isidro, Yuriany Gabriela, Angelly Zharick Pacheco-Niño, Karen Dayan Rico-Berrio e Erick Janer Téllez Duarte. "Guía para la disminución de opacidad en la toma de decisiones de la IA en los negocios". Reflexiones contables (Cúcuta) 7, n. 1 (1 gennaio 2024): 08–16. http://dx.doi.org/10.22463/26655543.4392.

Testo completo
Abstract (sommario):
La investigación aborda los desafíos éticos y de confianza surgidos con la rápida adopción de la Inteligencia Artificial (IA) en entornos empresariales. Se enfoca en la falta de transparencia en la toma de decisiones de la IA, generando una necesidad apremiante de abordar esta opacidad. El análisis destaca la importancia de encontrar un equilibrio entre la eficiencia que ofrece la IA y la transparencia necesaria en las operaciones comerciales. En este contexto, se propone una guía como solución para disminuir la opacidad y promover un uso responsable de la IA en el ámbito empresarial. Esta guía no solo busca abordar dilemas éticos y de confianza, sino que también tiene un impacto social y económico significativo. Socialmente, capacita a los profesionales para tomar decisiones informadas, fomentando un uso consciente de la IA y contribuyendo a la diversificación de marcas. Además, promueve una competencia más equitativa en el mercado. Se enfatiza la necesidad de concienciar sobre el uso adecuado de la IA, asegurando su aplicación sin comprometer el progreso personal y social. La guía propuesta no solo aborda cuestiones éticas y de confianza, sino que también promueve el avance tecnológico responsable en el ámbito empresarial, buscando un equilibrio entre la eficiencia y la transparencia para lograr un impacto social y económico positivo.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Beneite-Martí, Joshua. "¿Inteligencia Artificial en Proyectos de Aprendizaje-Servicio?" EDU REVIEW. International Education and Learning Review / Revista Internacional de Educación y Aprendizaje 12, n. 2 (14 dicembre 2024): 99–109. https://doi.org/10.62701/revedu.v12.5414.

Testo completo
Abstract (sommario):
Este artículo explora cómo la Inteligencia Artificial (IA) puede integrarse en proyectos de Aprendizaje-Servicio (ApS), analizando su uso en tres niveles: como objeto central, como recurso para el desarrollo de los proyectos y como herramienta para su planificación y evaluación. Además, revisa diferentes enfoques educativos: educar con IA, educar sobre IA y educar a la IA, destacando las implicaciones pedagógicas en cada uno de ellos. El texto también aborda los desafíos éticos relacionados con la aplicación de la IA al ApS, subrayando la necesidad de garantizar un uso responsable que promueva el bienestar sin perpetuar desigualdades o exclusiones sociales.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Martínez Devia, Andrea. "La inteligencia artificial, el big data y la era digital: ¿una amenaza para los datos personales?" Revista La Propiedad Inmaterial, n. 27 (25 giugno 2019): 5–23. http://dx.doi.org/10.18601/16571959.n27.01.

Testo completo
Abstract (sommario):
La Inteligencia Artificial (IA) es el presente y el futuro de la humanidad, ya que cada vez más dependemos de la tecnología para realizar nuestras actividades diarias. La IA se puede definir como la simulación realizada por máquinas o sistemas informáticos de procesos o de actividades realizadas por la inteligencia humana. En este sentido, el funcionamiento de la IA se basa en el análisis de miles de datos conocidos como big data, dentro de los que se pueden encontrar datos de carácter personal, los cuales, por su esencia, deben ser tratados de manera ética, responsable y transparente para proteger los derechos de los titulares. Para poder asegurar el adecuado tratamiento de los datos personales en la era digital, Colombia deberá adecuar la normativa existente e implementar de esta forma regulaciones adaptadas a las nuevas tecnologías, a fin de que los responsables tengan directrices para realizar un uso correcto de la información personal cuando desarrollen y usen nuevas tecnologías, priorizando la protección de los derechos de los titulares, quienes, a su vez, deberán desempeñar un papel activo respecto de las implicaciones que trae consigo la entrega y la autorización del uso de sus datos en las herramientas de Inteligencia Artificial.
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "IA responsable"

1

Reis, Fernanda de Castro. "Construção de minigenes para avaliação de mutações que açlteram o sitio de splicing do gene responsavel pela glicogenose tipo Ia (Doença de Von Gierke)". [s.n.], 2001. http://repositorio.unicamp.br/jspui/handle/REPOSIP/308886.

Testo completo
Abstract (sommario):
Orientadores: Edi Lucia Sartorato, Denise Yvonne Janovitz Norato
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Ciências Médicas
Made available in DSpace on 2018-07-27T18:22:36Z (GMT). No. of bitstreams: 1 Reis_FernandadeCastro_M.pdf: 23985784 bytes, checksum: e92f2903bb320c3ac779c96e20940b1a (MD5) Previous issue date: 2001
Resumo: A doença de depósito de glicogênio do tipo Ia (GSDIa), é a forma mais comum entre as glicogenose do tipo I (GSDI), com uma freqüência de 1:100.000 nascimentos. É uma doença de herança autossômica recessiva, clinicamente caracterizada por hipoglicemia, hepatomegalia, retardo no crescimento, hiperlipidemia, hiperuricemia e acidose láctica. Esses sintomas são provocados pela deficiência da enzima glicose 6- fosfatase (G6Pase), que cataliza as etapas finais da gliconeogênese e glicogenólise através da conversão da glicose 6-fosfato (G6P) em glicose e fosfato. No passado, muitos pacientes com GSDI morriam pela doença. Atualmente, com o diagnóstico precoce e início de um tratamento contínuo e adequado, complicações como adenomas hepáticos e renais podem ser prevenidas. O isolamento do cDNA humano da G6Pase demonstrou que o gene G6PC é composto de cinco exons, possui um tamanho de 12,5Kb e se localiza no cromossomo 17. Desde sua clonagem, mais de 50 diferentes mutações foram descritas no gene. Em pacientes caucasianos provenientes dos EUA e do Noroeste europeu, as mutações R83C e Q347X são responsáveis por 22,5% e 22,4% de todos os alelos mutantes respectivamente. O diagnóstico de GSDIa pode ser feito através de testes enzimáticos e confirmado pela análise de mutação no gene G6PC. A caracterização do gene da G6Pase possibilitou a identificação de mutações que causam GSDIa. Este fato nos dá a opção de aplicar um diagnóstico baseado em análise de DNA para detecção de portadores e diagnóstico prénatal. A caracterização do gene também possibilita um insight em tomo da relação estrutura-função da catálise da G6Pase, revelando a função estrutural de aminoácidos específicos. No presente estudo, vinte e sete pacientes de GSDIa provenientes de 26 famílias não relacionadas foram investigados. O diagnóstico pela análise da atividade da enzima G6Pase em biópsia de fígado foi confirmado em apenas quatro pacientes. A estratégia dos minigenes foi utilizada para verificar o efeito das mutações intrônicas sob o mecanismo de splicing, não sendo identificados transcritos aberrantes. A perda de exons ou incorporação de fragmentos intrônicos nos exons são mecanismos mutacionais comuns, freqüentemente causados por mudanças nas seqüências conservadas de regiões de sítios de splicing. Da mesma forma seqüências fora dessas regiões também podem afetar a inclusão ou exclusão de exons. Essas alterações que atuam nos mecanismos de splicing podem estar localizadas em introns ou em exons, e padrões de splicing alternativos podem ser determinados pela visualização do tamanho do produto de transcrição. Foram identificadas oito alterações no gene G6PC, incluindo uma nova mutação de ponto encontrada até o momento somente na população brasileira, publicada por nosso grupo, duas mutações intrônicas, uma mutação silenciosa e quatro mutações de ponto previamente descritas. Foi analisado também o polimorfismo T1176C que está em associação com a mutação R83C. Esse polimorfismo pode ser utilizado como marcador para o diagnóstico de portadores e pré-natal de famílias com GSDIa que têm mutações não identificadas e que são informativas para esse marcador. Esse estudo enfatiza que a análise molecular genética é uma alternativa confiável e conveniente ao ensaio enzimático feito em biópsia de figado para o diagnóstico de GSDIa
Abstract: Glycogen storage disease type (GSD) is the most prevalent form among the glycogen storage disease type I (GSDI), with an overall frequency of 1:100.000 live births. It' s an autosomal recessive disorder clinically characterized by hypoglycemia, hepatomegaly, growth retardation, hyperlipidemia, hyperuricemia, and lactic acidemia. These symptoms are caused by a deficiency in glucose 6-phosphatase (G6Pase), which catalyzes the terminal steps in gluconeogenesis and glycogenolysis by converting glucose 6-phosphate (G6P) into glucose and phosphate. In the past, many patients with type I glycogen storage disease used to die. At present, with early diagnosis and initiation of continuous proper treatment such as hepatic and renal adenomas can be prevented. Isolation of human G6Pase cDNA showed that G6PC gene is composed of five exons, spanning approximately 12,5Kb on chromosome 17.From its cloning, more than 50 different mutations have been reported in this gene. In Caucasian patients trom the USA and from North-West Europe, R83C and Q347X account for 25.2% and 22.4% of all mutant alleles respectively. Diagnosis of GSDla can be done by enzymological tests and confirmed by mutation analysis of the G6PC gene. The characterization of the G6Pase gene enabled the identification of the mutations causing GSDla. This fact provides an option on applying DNA-analysis based diagnosis for carrier detection and prenatal diagnosis. The characterization of the gene also provides an insight into the structure-function relation of the G6Pase catalysis, by revealing the structural roles of specific amino acid residues. In the present study, twenty seven GSDla patients trom twenty six unrelated families were investigated. The diagnosis by the G6Pase enzyme activity analysis in the liver biopsy was confirmed only in four patients. The minigenes strategy was used in order to verify the effect of the intronic mutations in the splicing mechanism. No aberrant transcripts were identified. Exon skipping or exon intronic fragment incorporation is an usual mutational mechanism, often caused by changes in the consensus sequences at splicing site region. Likewise, sequences outside these regions can also affect the inclusion or exclusion of exons. Such splicing enhancers may be located in introns or exons, and alternative splicing pattems could be determined by visualization of a sized transcription product. Eight alterations in the G6PC gene were identified, including a new point mutation found so far only in Brazilian population and published by our group, two intronic mutations, a silent mutation, and four point mutations previously described. It was also analyzed the T1176C polymorphism that is in association with the R83C mutation. This polymorphism can be used as a marker in carrier and prenatal diagnosis of GSDla families which have unidentified mutations and are informative for this marker. This study emphasizes that molecular genetic analysis is a reliable and convenient altemative to the enzyme assay in a tresh liver biopsy specimen to diagnose GSDla
Mestrado
Ciencias Biomedicas
Mestre em Ciências Médicas
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Kaplan, Caelin. "Compromis inhérents à l'apprentissage automatique préservant la confidentialité". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4045.

Testo completo
Abstract (sommario):
À mesure que les modèles d'apprentissage automatique (ML) sont de plus en plus intégrés dans un large éventail d'applications, il devient plus important que jamais de garantir la confidentialité des données des individus. Cependant, les techniques actuelles entraînent souvent une perte d'utilité et peuvent affecter des facteurs comme l'équité et l'interprétabilité. Cette thèse vise à approfondir la compréhension des compromis dans trois techniques de ML respectueuses de la vie privée : la confidentialité différentielle, les défenses empiriques, et l'apprentissage fédéré, et à proposer des méthodes qui améliorent leur efficacité tout en maintenant la protection de la vie privée. La première étude examine l'impact de la confidentialité différentielle sur l'équité entre les groupes définis par des attributs sensibles. Alors que certaines hypothèses précédentes suggéraient que la confidentialité différentielle pourrait exacerber l'injustice dans les modèles ML, nos expériences montrent que la sélection d'une architecture de modèle optimale et le réglage des hyperparamètres pour DP-SGD (Descente de Gradient Stochastique Différentiellement Privée) peuvent atténuer les disparités d'équité. En utilisant des ensembles de données standards dans la littérature sur l'équité du ML, nous montrons que les disparités entre les groupes pour les métriques telles que la parité démographique, l'égalité des chances et la parité prédictive sont souvent réduites ou négligeables par rapport aux modèles non privés. La deuxième étude se concentre sur les défenses empiriques de la vie privée, qui visent à protéger les données d'entraînement tout en minimisant la perte d'utilité. La plupart des défenses existantes supposent l'accès à des données de référence — un ensemble de données supplémentaire provenant de la même distribution (ou similaire) que les données d'entraînement. Cependant, les travaux antérieurs n'ont que rarement évalué les risques de confidentialité associés aux données de référence. Pour y remédier, nous avons réalisé la première analyse complète de la confidentialité des données de référence dans les défenses empiriques. Nous avons proposé une méthode de défense de référence, la minimisation du risque empirique pondéré (WERM), qui permet de mieux comprendre les compromis entre l'utilité du modèle, la confidentialité des données d'entraînement et celle des données de référence. En plus d'offrir des garanties théoriques, WERM surpasse régulièrement les défenses empiriques de pointe dans presque tous les régimes de confidentialité relatifs. La troisième étude aborde les compromis liés à la convergence dans les systèmes d'inférence collaborative (CIS), de plus en plus utilisés dans l'Internet des objets (IoT) pour permettre aux nœuds plus petits de décharger une partie de leurs tâches d'inférence vers des nœuds plus puissants. Alors que l'apprentissage fédéré (FL) est souvent utilisé pour entraîner conjointement les modèles dans ces systèmes, les méthodes traditionnelles ont négligé la dynamique opérationnelle, comme l'hétérogénéité des taux de service entre les nœuds. Nous proposons une approche FL novatrice, spécialement conçue pour les CIS, qui prend en compte les taux de service variables et la disponibilité inégale des données. Notre cadre offre des garanties théoriques et surpasse systématiquement les algorithmes de pointe, en particulier dans les scénarios où les appareils finaux gèrent des taux de requêtes d'inférence élevés. En conclusion, cette thèse contribue à l'amélioration des techniques de ML respectueuses de la vie privée en analysant les compromis entre confidentialité, utilité et autres facteurs. Les méthodes proposées offrent des solutions pratiques pour intégrer ces techniques dans des applications réelles, en assurant une meilleure protection des données personnelles
As machine learning (ML) models are increasingly integrated into a wide range of applications, ensuring the privacy of individuals' data is becoming more important than ever. However, privacy-preserving ML techniques often result in reduced task-specific utility and may negatively impact other essential factors like fairness, robustness, and interpretability. These challenges have limited the widespread adoption of privacy-preserving methods. This thesis aims to address these challenges through two primary goals: (1) to deepen the understanding of key trade-offs in three privacy-preserving ML techniques—differential privacy, empirical privacy defenses, and federated learning; (2) to propose novel methods and algorithms that improve utility and effectiveness while maintaining privacy protections. The first study in this thesis investigates how differential privacy impacts fairness across groups defined by sensitive attributes. While previous assumptions suggested that differential privacy could exacerbate unfairness in ML models, our experiments demonstrate that selecting an optimal model architecture and tuning hyperparameters for DP-SGD (Differentially Private Stochastic Gradient Descent) can mitigate fairness disparities. Using standard ML fairness datasets, we show that group disparities in metrics like demographic parity, equalized odds, and predictive parity are often reduced or remain negligible when compared to non-private baselines, challenging the prevailing notion that differential privacy worsens fairness for underrepresented groups. The second study focuses on empirical privacy defenses, which aim to protect training data privacy while minimizing utility loss. Most existing defenses assume access to reference data---an additional dataset from the same or a similar distribution as the training data. However, previous works have largely neglected to evaluate the privacy risks associated with reference data. To address this, we conducted the first comprehensive analysis of reference data privacy in empirical defenses. We proposed a baseline defense method, Weighted Empirical Risk Minimization (WERM), which allows for a clearer understanding of the trade-offs between model utility, training data privacy, and reference data privacy. In addition to offering theoretical guarantees on model utility and the relative privacy of training and reference data, WERM consistently outperforms state-of-the-art empirical privacy defenses in nearly all relative privacy regimes.The third study addresses the convergence-related trade-offs in Collaborative Inference Systems (CISs), which are increasingly used in the Internet of Things (IoT) to enable smaller nodes in a network to offload part of their inference tasks to more powerful nodes. While Federated Learning (FL) is often used to jointly train models within CISs, traditional methods have overlooked the operational dynamics of these systems, such as heterogeneity in serving rates across nodes. We propose a novel FL approach explicitly designed for CISs, which accounts for varying serving rates and uneven data availability. Our framework provides theoretical guarantees and consistently outperforms state-of-the-art algorithms, particularly in scenarios where end devices handle high inference request rates.In conclusion, this thesis advances the field of privacy-preserving ML by addressing key trade-offs in differential privacy, empirical privacy defenses, and federated learning. The proposed methods provide new insights into balancing privacy with utility and other critical factors, offering practical solutions for integrating privacy-preserving techniques into real-world applications. These contributions aim to support the responsible and ethical deployment of AI technologies that prioritize data privacy and protection
Gli stili APA, Harvard, Vancouver, ISO e altri

Libri sul tema "IA responsable"

1

IA en el Aula: Guía para el Uso Responsable. EDITORIAL ARJE, 2023.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

González, Felipe, Teresa Ortiz e Roberto Sánchez Ávalos. IA Responsable: Manual técnico: Ciclo de vida de la inteligencia artificial. Inter-American Development Bank, 2020. http://dx.doi.org/10.18235/0002876.

Testo completo
Abstract (sommario):
A pesar de que existe un número importante de principios que buscan una IA ética, solo proporcionan una orientación de alto nivel sobre lo que debe o no hacerse en su desarrollo y existe muy poca claridad sobre cuáles son las mejores prácticas para ponerlas en funcionamiento. El objetivo de este manual es proveer recomendaciones y buenas prácticas técnicas con el fin de evitar resultados contrarios (muchas veces inesperados) a los objetivos de los tomadores de decisiones. Esos fines son variados: pueden referirse a consecuencias no deseables desde el punto de vista de los tomadores de decisiones, desaprovechamiento de recursos debido a focalizaciones inadecuadas o cualquier otro objetivo que el tomador de decisiones esté buscando lograr. Este manual está pensado para equipos técnicos trabajando en la aplicación de algoritmos de aprendizaje automático para políticas públicas.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Rosales Torres, César Said, César Buenadicha Sánchez e Tetsuro Narita. Autoevaluación ética de IA para actores del ecosistema emprendedor: Guía de aplicación. Inter-American Development Bank, 2021. http://dx.doi.org/10.18235/0003269.

Testo completo
Abstract (sommario):
fAIr LAC, la iniciativa del Grupo BID que promueve el uso ético y responsable de la inteligencia artificial, a través de BID Lab ha elaborado una herramienta práctica de autoevaluación ética de IA para emprendedores, que permite llevar a cabo un análisis de la solución tecnológica basada en IA y manejo de datos. Este diagnóstico ayuda a los emprendedores a mejorar su desarrollo de producto, mientras que identifica las principales áreas de atención para prevenir errores, sesgos, discriminaciones y exclusiones resultantes del despliegue tecnológico. La autoevaluación ética de IA para emprendedores que tiene en sus manos es el primer producto de fAIr LAC para emprendedores, y es una guía orientativa en español con enfoque multidisciplinario que contempla seis dimensiones principales: 1. Conceptualización y diseño, 2. Gobernanza y seguridad, 3. Involucramiento humano en los sistemas de IA, 4. Ciclo de vida de la IA (datos y algoritmos), 5. Actores relevantes y 6. Comunicaciones. El propósito es que los emprendedores tengan una referencia rápida de cuáles son los aspectos más importantes a considerar en cada una de estas dimensiones, a fin de tener una visión completa sobre las implicaciones éticas de sus productos y así establecer las medidas pertinentes de mejora y mitigación de riesgos. La principal innovación de este documento radica en dos aspectos principales: el primero que no pone el peso de la autorregulación únicamente en los emprendedores, sino que involucra dos actores clave para el ecosistema: los financiadores de proyectos y las aceleradoras. El segundo aspecto es que las preguntas orientadoras se corresponden con tres niveles de desarrollo de las empresas desde etapas tempranas en fases de ideación hasta emprendimientos maduros o pequeñas y medianas empresas (PyMEs) desarrollando productos innovadores. Asimismo, si bien el documento está pensado principalmente para orientar en el desarrollo e implementación de soluciones basadas en IA, también es útil para aquellas soluciones basadas en el manejo de datos. Invitamos a los interesados a descargar la publicación y a formar parte del viaje del emprendedor en su camino por desarrollar soluciones tecnológicas de impacto social que contribuyan a un desarrollo regional sostenido que no deje a nadie atrás.
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "IA responsable"

1

Humerez Alvez, Ariz. "LA INTELIGENCIA ARTIFICIAL Y EL DERECHO". In Visiones Contemporáneas: derecho, educación e investigación, 86–97. Editora Científica Digital, 2024. http://dx.doi.org/10.37885/240516608.

Testo completo
Abstract (sommario):
El artículo analiza el impacto de inteligencia artificial (IA) en el ámbito legal y subraya la urgencia de implementar marcos jurídicos adecuados para salvaguardar los derechos humanos ante su avance. Se detalla cómo la IA, a través de métodos como el aprendizaje automático, se integra en el derecho facilitando actividades tales como el análisis jurímetrico, la automatización de procesos legales y la evaluación de evidencia. Sin embargo, se advierte sobre los riesgos inherentes al uso de la IA, incluyendo la falta de transparencia en los algoritmos, la introducción de sesgos discriminatorios y las potenciales violaciones a la privacidad personal. El documento argumenta la necesidad de una regulación cuidadosa de la justicia electrónica y la implementación de salvaguardas específicas para fomentar el desarrollo de una IA que sea ética y transparente. Asimismo, la IA debe servir como un complemento a la capacidad de razonamiento humana, en lugar de reemplazo. Por tanto, se enfatiza la importancia de un enfoque interdisciplinario que logre un equilibrio entre innovación tecnológica, principios éticos y protección jurídica, proponiendo un camino hacia una integración responsable de la IA en el derecho.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Esteban, Santiago, Rosa Angelina Pace, Velén Pennini, Adrián Santoro, Adolfo Rubinstein e Cintia Cejas. "Inteligencia Artificial (IA) Responsable: Claves para aplicar principios éticos en soluciones de IA en el ámbito sanitario". In AI for Global Health Research hub. The Global Health Network, 2024. http://dx.doi.org/10.48060/tghn.134.

Testo completo
Abstract (sommario):
La relación entre la inteligencia artificial (IA) en el ámbito sanitario y la ética es un tema de creciente interés y debate. La IA se define como el campo de estudio y desarrollo de sistemas y tecnologías capaces de simular la inteligencia humana para realizar tareas complejas de forma autónoma [1]. En el sector sanitario, la IA se ha convertido en una herramienta prometedora con potencial para mejorar el diagnóstico, el tratamiento y la gestión de enfermedades y analizar datos médicos y de salud a gran escala. Sin embargo, la aplicación de la IA en la atención sanitaria plantea una serie de desafíos éticos que deben abordarse con cuidado y consideración. Las principales cuestiones a considerar son los riesgos asociados, principalmente relacionados con el manejo y la protección de datos, así como los sesgos que podrían ocurrir o empeorar, colocando a minorías de diversos orígenes en desventaja y exacerbando las disparidades existentes, como las relacionadas con el género y otras. . A lo largo de este documento se define el concepto de ética y sus principios asociados; se analiza el papel de la ética en las soluciones de IA; qué son los sesgos y por qué son tan cruciales en el desarrollo de modelos de IA, especialmente en el campo sanitario, y finalmente, el documento aborda, con ejemplos, la aplicación de principios éticos a lo largo del ciclo de vida de las soluciones basadas en IA: selección y definición de problemas , planificación y diseño, desarrollo y validación, despliegue e implementación, y operación y seguimiento.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Velasco-García, Rodolfo Rodrigo. "Perspectiva de la IA en Educación Normal". In Reflexión docente en educación, una tarea ardua del formador en educación contemporánea, 82–92. ECORFAN, 2024. http://dx.doi.org/10.35429/h.2024.4.82.92.

Testo completo
Abstract (sommario):
La principal aportación a la generación de Ciencia y Tecnología escrita en esta investigación es conocer la percepción de los estudiantes de la Centenaria y Benemérita Escuela Normal para Profesores con respecto al uso de la IA en la educación, entre los aspectos clave a que se encontraron es que la mayoría de los estudiantes reconoce la importancia de incorporar herramientas basadas en IA en el aula, siempre y cuando se utilicen de manera responsable y se adapten de manera positiva a los procesos educativos. Las principales conclusiones que se mencionaron en el estudio fueron que su uso les permite mejorar la calidad de su trabajo aprovechando todos los recursos y opciones de información y que el uso y su utilización son habilidades que deben ser desarrolladas, esto con el fin de utilizarla eficazmente, subrayando la idea de que la IA puede servir como una herramienta para potenciar la creatividad en el proceso de creación de contenido. Así como de habilidades de búsqueda y discriminación de información son resaltadas como aspectos cruciales al interactuar con la IA.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Torres Cruz, Edward, Fred Torres Cruz, Julio W. Torres Segura, Teobaldo Raul Basurco Chambilla, Ofelia Marleny Mamani Luque, Milton Antonio López Cueva, José Pánfilo Tito Lipa, Jose Antonio Supo Gutierrez e Leonel Coyla Idme. "IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN UNIVERSITARIA". In Abordagens sobre ensino-aprendizagem e formação de professores, 80–91. Editora Científica Digital, 2023. http://dx.doi.org/10.37885/230513147.

Testo completo
Abstract (sommario):
Introduccion: El avance de la inteligencia artificial (IA) plantea nuevos desafíos para la educación universitaria. En este contexto, surge la pregunta de si la IA es favorable o no en la educación universitaria. Este estudio se propone abordar esta interrogante a través de una metodología sólida. Metodologia: En primer lugar, se realiza una revisión exhaustiva de la literatura académica y científica para obtener un conocimiento sólido de los avances y las oportunidades de la IA en la educación universitaria. A través de la recopilación de datos empíricos, como entrevistas, encuestas y análisis documental, se examinan los desafíos y beneficios percibidos por los actores involucrados en la educación universitaria. Resultados: Estos datos se analizan cuidadosamente para identificar patrones y tendencias. Con base en los hallazgos, se elaboran conclusiones y recomendaciones respaldadas por la evidencia recopilada durante el estudio. El objetivo es proporcionar una evaluación objetiva de los desafíos y beneficios de la IA en la educación universitaria y ofrecer recomendaciones prácticas para su implementación efectiva, considerando aspectos éticos y pedagógicos. Conclusión: En última instancia, este estudio busca proporcionar una visión comprensiva y equilibrada sobre el impacto de la IA en la educación universitaria, facilitando una toma de decisiones informada y responsable en este ámbito en constante evolución.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Villasante Saravia, Fredy Heric, Rocio Cahuana Lipa, Julio César Machaca Mamani e Percy Huata Panca. "USO ESTRATÉGICO DE LA INTELIGENCIA ARTIFICIAL PARA POTENCIAR EL RENDIMIENTO ACADÉMICO Y DESARROLLO INTEGRAL DEL ESTUDIANTE". In Educação e Inteligência Artificial: desafios e diálogos na contemporaneidade, 176–85. Editora Científica Digital, 2024. http://dx.doi.org/10.37885/240115458.

Testo completo
Abstract (sommario):
Objetivo: Analizar el impacto del uso estratégico de la Inteligencia Artificial (IA) en la educación. Se estructuró utilizando un enfoque descriptivo y revisión de bibliografía. Metodología: Se centró en la recopilación y análisis de datos provenientes de estudios previos, con el objetivo de identificar patrones y tendencias asociadas con la implementación de la IA en entornos educativos. Resultados: Los hallazgos obtenidos indican que la personalización del aprendizaje fue un componente crucial para mejorar el rendimiento académico. La capacidad de los algoritmos de IA para adaptarse a estilos de aprendizaje individuales se reveló como eficaz, resultando en una mejora significativa en la retención de conocimientos. Además, la IA demostró tener un impacto positivo en el desarrollo socioemocional al analizar interacciones sociales y emociones, contribuyendo así a la creación de ambientes de aprendizaje emocionalmente positivos. Resultado: La implementación de plataformas educativas basadas en IA también proporcionó un acceso más equitativo a recursos educativos de calidad, contribuyendo a la reducción de la brecha educativa. No obstante, se destaca la necesidad imperativa de abordar consideraciones éticas, garantizando la privacidad de los datos y ofreciendo una formación continua a los educadores para un uso responsable de la tecnología. Conclusión: Este estudio subraya el potencial transformador de la IA en la educación al mejorar el rendimiento académico y promover el desarrollo integral de los estudiantes. Aunque los resultados son prometedores, se enfatiza la importancia de consideraciones éticas, la formación continua, y se resalta la necesidad de investigaciones adicionales para comprender completamente el impacto a largo plazo de la IA en el ámbito educativo.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Heredia García, Gerardo. "Uso racional de medicamentos; responsabilidad universitaria". In Propuestas hacia una universidad inclusiva y responsable, 183–202. 2024a ed. Editorial Torres Asociados, 2024. http://dx.doi.org/10.53436/y75zu19h.

Testo completo
Abstract (sommario):
Se reflexiona sobre el uso racional de medicamentos como responsabilidad universitaria. Incluye la prescripción, dispensación, y administración de medicamentos de manera adecuada, segura y efectiva. La responsabilidad universitaria se refiere al papel que las instituciones educativas tienen en formar profesionales de la salud con conocimientos sobre el uso racional y ético de medicamentos, con un sentido humanista. Por lo anteriormente mencionado, la investigación de Heredia aborda la importancia de que las universidades integren en sus planes asignaturas y/o planes de estudio, que proporcionen a los futuros profesionales de la salud una mejor comprensión sobre los principios del uso racional de medicamentos. Esta actitud requiere el apoyo de los docentes, imprescindible para lograr dicha comprensión. Además, se toman en cuenta aspectos de igualdad, equidad, pluriculturalidad, biocentrismo e incluso el uso de IA que pueden ser factores para desarrollar un mejor aprendizaje. El autor concluye que la educación superior debe reformarse para lograr una mejor integración en la sociedad y una mayor comprensión sobre el uso adecuado de medicamentos, con el fin de formar profesionales competentes y responsables en el área de salud y a la vez capaces de evaluar y resolver problemas actuales.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

BOUCAUD, Pascale. "Protection de la liberté et de la fragilité de la personne face au robot". In Intelligence(s) artificielle(s) et Vulnérabilité(s) : kaléidoscope, 137–48. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3642.

Testo completo
Abstract (sommario):
Le cadre de vie de la personne âgée, quel qu’il soit, est de plus en plus connecté à des techniques numériques diversifiées. En dépit de l’apport incontestable de ces nouvelles techniques, des risques sont d’ores et déjà à souligner. De nombreuses déclarations ont vu le jour, en faveur d’une IA éthique, responsable et respectueuse des droits de la personne. Sont principalement concernés le principe de dignité humaine, de liberté du consentement, le droit au respect de la vie privée, la protection des données personnelles. Ces droits fondamentaux ne sont pas négociables et encore moins optionnels. C’est pourquoi, nous tenterons dans cet article, de mesurer l’effectivité de certains de ces droits et libertés pour la personne âgée confrontée à la robotisation.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Kohan, Paula Eugenia, Adolfo Rubinstein e Cintia Cejas. "¿POR QUÉ ES IMPORTANTE REGULAR LA INTELIGENCIA ARTIFICIAL EN EL SECTOR DE LA SALUD?" In AI for Global Health Research hub. The Global Health Network, 2024. http://dx.doi.org/10.48060/tghn.136.

Testo completo
Abstract (sommario):
En la era digital, la inteligencia artificial (IA) desempeña un papel cada vez más importante en diversos sectores, y la atención sanitaria no es una excepción. Sin embargo, la integración de la IA en este sector no puede descuidarse ni dejarse al azar debido a la naturaleza extremadamente sensible de los datos de salud y las decisiones que se toman a partir de ellos. Los datos de salud son más que números; representan historias humanas, contextos personales y estados de vulnerabilidad que merecen una protección excepcional. Las decisiones críticas que se toman en este ámbito, a menudo de vida o muerte, requieren un alto nivel de atención y cuidado. El potencial de la IA para transformar el sector de la atención sanitaria es inmenso, pero sin las salvaguardas adecuadas, los riesgos pueden superar los beneficios. A medida que adoptamos estas tecnologías avanzadas, es esencial considerar las implicaciones legales y sociales de su implementación. Sin duda, la regulación desempeña un papel vital en la estandarización de las prácticas y los procedimientos. En un campo tan crítico como la atención sanitaria, será extremadamente importante generar coherencia en la forma en que se desarrollan, implementan y utilizan las tecnologías de IA. Las regulaciones ayudan a establecer estándares comunes, asegurando que todas las tecnologías cumplan con los mismos criterios de calidad y seguridad, al tiempo que fomentan la innovación y el avance tecnológico. Además, un marco regulatorio adecuado puede fomentar la innovación responsable, estableciendo pautas claras que incentiven a las empresas a desarrollar tecnologías de IA que no solo sean efectivas sino también seguras y éticas. Esto crea un entorno donde la innovación puede prosperar sin comprometer la seguridad y el bienestar del paciente. Además, los marcos regulatorios que se desarrollen deben tener en cuenta la supervisión humana en los procesos de toma de decisiones que involucran IA. Los humanos deben desempeñar un papel central en este paradigma para garantizar la precisión de los diagnósticos y tratamientos propuestos por IA y la precisión de los diagnósticos y tratamientos propuestos por IA. Preservando la esencia de la práctica médica como un acto intrínsecamente humano que valora la empatía, el juicio ético y el respeto por la autonomía del paciente. El sector de la salud tiene un alcance global inherente, ya que las soluciones desarrolladas en una región se pueden implementar fácilmente en otra. Por lo tanto, la regulación juega un papel clave en la creación de estándares universales que promueven la cooperación internacional y facilitan el intercambio de tecnologías de salud basadas en IA. Esta uniformidad es especialmente importante en un mundo donde el avance tecnológico elimina rápidamente las barreras geográficas, lo que hace que la colaboración y la adopción de innovaciones en salud sean más accesibles a nivel mundial. Por estos motivos, regular la IA en el sector sanitario no es solo una medida necesaria, sino una responsabilidad esencial para garantizar que esta tecnología se integre de forma ética y segura. Lograr una regulación flexible y bien concebida será crucial para que la IA alcance su potencial transformador sin comprometer los valores éticos fundamentales de nuestra sociedad.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Sabán, Martín, Denise Zavala, Analía López, Santiago Esteban, Adolfo Rubinstein e Cintia Cejas. "Inteligencia Artificial y Salud Sexual, Reproductiva y Materna (SRMH): Un estudio de experiencias en América Latina y el Caribe Inteligencia Artificial (IA) responsable". In AI for Global Health Research hub. The Global Health Network, 2024. http://dx.doi.org/10.48060/tghn.135.

Testo completo
Abstract (sommario):
Según datos del Fondo de Población de las Naciones Unidas (UNFPA), la mayoría de las intervenciones en salud sexual y reproductiva son rentables. Reducir los embarazos no deseados y los abortos inseguros, prevenir las infecciones por VIH y ETS, proporcionar métodos anticonceptivos asequibles y ofrecer asesoramiento sobre salud sexual son intervenciones sostenibles y de bajo costo. Si se aumentan y mantienen las inversiones en servicios de salud sexual y reproductiva en los países en desarrollo, se pueden lograr enormes beneficios. Por ejemplo, la planificación familiar permite a las mujeres alcanzar niveles más altos de educación y crea un mejor equilibrio entre la familia y el trabajo. La atención prenatal y los servicios obstétricos protegen la salud de la madre y el niño. La Educación Sexual Integral es un recurso fundamental para empoderar a los jóvenes para tomar decisiones informadas y responsables y evitar embarazos no deseados e ITS. La convergencia entre el sector salud y la tecnología permite aprovechar plataformas innovadoras y rentables para fortalecer las capacidades locales y globales, maximizando muchas de las intervenciones antes mencionadas. En los últimos años, el crecimiento exponencial de los datos digitales, la implementación de sistemas de información sanitaria, el aumento de la capacidad informática y los avances en la programación y codificación de algoritmos de inteligencia artificial (IA) han impulsado iniciativas de transformación digital. La IA ofrece diversas aplicaciones, incluido el aprendizaje automático, el procesamiento, la comprensión y la generación del lenguaje natural, el análisis del habla, los agentes virtuales conversacionales (chatbots), la robótica y muchas otras herramientas. Estas herramientas pueden superar ciertas limitaciones al brindar atención médica eficiente y accesible y contribuir al logro de los Objetivos de Desarrollo Sostenible (ODS) en salud. Sin embargo, como se menciona en el Documento Técnico 1 de CLIAS, el desarrollo de la IA en el sector de la salud aún se encuentra en una etapa exploratoria en la región, lo que significa que aún no se han cumplido los criterios para un ecosistema verdaderamente integrado. Esto crea desafíos en la integración e implementación de estrategias para cubrir las necesidades de salud prioritarias y fortalecer el acceso a la salud. Este documento tiene como objetivo estudiar y analizar las aplicaciones de herramientas de inteligencia artificial en salud sexual, salud reproductiva y salud materna en América Latina y el Caribe a través de una revisión exploratoria de la literatura. La relación entre la inteligencia artificial (IA) en el ámbito sanitario y la ética es un tema de creciente interés y debate. La IA se define como el campo de estudio y desarrollo de sistemas y tecnologías capaces de simular la inteligencia humana para realizar tareas complejas de forma autónoma.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

da Silva Reis, Gabriella. "Inteligência artificial na análise diagnóstica: potencial, desafios e reflexos jurídicos". In Direito, Tecnologia e Inovação - vol. 6: Ciência de Dados e Direito, 225–50. Centro DTIBR, 2024. http://dx.doi.org/10.59224/dti6.ch7.

Testo completo
Abstract (sommario):
Este artigo tem como objetivo estimular o discurso sobre o papel da IA na análise diagnóstica, introduzindo termos-chave de ciência de dados e modelos de aprendizado de máquina. Ele explora o equilíbrio entre benefícios e riscos da IA em diagnósticos médicos. Faz a ligação entre casos reais e construções teóricas, destacando que, apesar das teorias de responsabilidade, persistem incertezas sobre a responsabili-dade médica por diagnósticos errados auxiliados pela IA.
Gli stili APA, Harvard, Vancouver, ISO e altri

Atti di convegni sul tema "IA responsable"

1

Expósito-Álvarez, Cristina, Manuel Roldán-Pardo, Sara Arrojo, Faraj A. Santirso, Miriam Marco e Marisol Lila. "Promoviendo un uso ético de la inteligencia artificial en la docencia universitaria". In IN-RED 2024: X Congreso de Innovación Educativa y Docencia en Red. València: Editorial Universitat Politècnica de València, 2024. https://doi.org/10.4995/inred2024.2024.18218.

Testo completo
Abstract (sommario):
Las herramientas de la inteligencia artificial (IA) han irrumpido con fuerza en el mundo universitario. Sin embargo, es necesario formar y sensibilizar al alumnado en el uso ético y responsable de estas herramientas. Este trabajo presenta un proyecto de innovación educativa que incluye recursos, herramientas y espacios de reflexión para capacitar al estudiantado en el uso ético de la IA para responder a esta necesidad. Se aplicó a 297 estudiantes del Grado de Psicología y Trabajo Social de la Universitat de València. Se evaluó las actitudes y conocimientos hacia la IA, la satisfacción con el proyecto y el impacto percibido en su rendimiento académico, así como la calificación final. Los resultados iniciales mostraron que el alumnado presenta actitudes ambivalentes hacia la IA y que no dispone de los conocimientos adecuados para su uso. Los resultados mostraron que el alumnado mostró un conocimiento significativamente mayor sobre el uso ético de las herramientas de IA al finalizar el proyecto. Además, el alumnado presentó una elevada satisfacción con el proyecto y un elevado impacto positivo percibido del proyecto en su rendimiento académico y calificación final. Se requiere más investigación para confirmar estos resultados.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Villajos Girona, Esther, Lucía Mollá Lliso, Aida Soriano Ripoll, Laura Lorente Prieto e Núria Tordera Santamatilde. "Intervención en estudiantes de educación superior para el uso responsable y ético del ChatGPT". In IN-RED 2024: X Congreso de Innovación Educativa y Docencia en Red, 1–12. València: Editorial Universitat Politècnica de València, 2024. https://doi.org/10.4995/inred2024.2024.18401.

Testo completo
Abstract (sommario):
El avance de las tecnologías de la información y la comunicación (TIC) y su impacto en diversas ramas del conocimiento hace necesario capacitar a los estudiantes de educación superior en el desarrollo de competencias digitales de distinto tipo. El auge de la inteligencia artificial generativa ha supuesto la necesidad de repensar el modo de relacionarse con dichas tecnologías en el proceso de enseñanza-aprendizaje. El uso cada vez más extendido de chatbots, como ChatGPT, pone de manifiesto que para el éxito académico, además de las competencias digitales, también son necesarias otras competencias como el pensamiento crítico, la seguridad digital o la resolución de problemas. El presente trabajo tiene como objetivo general explicar cómo se diseñó, implementó y evaluó una intervención dirigida a favorecer el uso responsable y ético de la IA (ChatGPT) en estudiantes de grado de la Universitat de València. Se diseñaron diversas actividades dirigidas a permitir una reflexión crítica sobre el uso de ChatGPT en el proceso de enseñanza-aprendizaje. Se tomaron medidas pre y post intervención. En total participaron en la intervención 221 alumnos. Los resultados mostraron que el programa de formación resulta útil, adecuado y satisfactorio para los estudiantes universitarios
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Villajos Girona, Esther, Óscar Medina Martí, Aida Soriano Ripoll, Inmaculada Silla Guerola e Amparo Ramos López. "Credibilidad de los resultados generados por ChatGPT: Un estudio piloto entre estudiantes universitarios". In IN-RED 2024: X Congreso de Innovación Educativa y Docencia en Red. València: Editorial Universitat Politècnica de València, 2024. https://doi.org/10.4995/inred2024.2024.18399.

Testo completo
Abstract (sommario):
Recientemente, nuestra sociedad ha presenciado una notable expansión y transformación impulsada por la Inteligencia Artificial (IA). Una tecnología que ha atraído considerable atención es el ChatGPT, lo que ha generado cierta alarma en el ámbito de la educación al observarse que numerosos estudiantes optan por utilizar esta herramienta sin ser conscientes de los peligros asociados a ella. El presente estudio, se enmarca en un proyecto de innovación educativa que tiene por objetivo favorecer el uso responsable del ChatGPT en estudiantado universitario. Específicamente, la investigación que aquí se describe tiene por objetivo analizar cambios en la credibilidad que el estudiantado otorga a las respuestas del ChatGPT, tras su participación en un programa de intervención. Un total de 221 estudiantes universitarios participaron en dicho programa. Los resultados del ANOVA factorial 2x2 revelaron diferencias significativas entre los grupos experimental y control, en cuanto a la credibilidad otorgada a las respuestas generadas por ChatGPT: el grupo experimental experimentó una disminución significativa en el nivel de credibilidad en estas respuestas entre el pretest y el postest, mientras que el grupo control mantuvo niveles estables en esta medida. Estos resultados indican un efecto positivo de la intervención, lo que respalda la eficacia de la misma
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Bueno de Santiago, Alejandra, Laura Martinez Martin e Aiskoa Perez. "Sesgos en la creación de imágenes por sistemas TTI de IA: hibridando arte, ciencia y tecnología". In VI Congreso Internacional de Investigación en Artes Visuales ANIAV 2024. València: Editorial Universitat Politècnica de València, 2024. http://dx.doi.org/10.4995/aniav2024.2024.18187.

Testo completo
Abstract (sommario):
En un contexto de avances vertiginosos en inteligencia artificial (IA), surge la necesidad crítica desde las prácticas artísticas de comprender cómo esta tecnología puede verse afectada por sesgos inherentes a la sociedad tradicional. En este punto planteamos indagar bajo la pedagogía crítica y la premisa de las imágenes que actúan cómo se comportan las imágenes generadas por IA desde una mirada artística, feminista e interseccional. Partiendo de la hipótesis de que los algoritmos de IA reflejan y pueden amplificar los sesgos presentes en los conjuntos de datos de entrenamiento, el estudio se propuso identificar y cuantificar estos sesgos en las imágenes generadas. Mediante metodologías cuantitativas y cualitativas los resultados del análisis de imágenes son puestos en diálogo con el cuerpo teórico de la investigación que se centra en bases de datos, construcción de imágenes, y prácticas artísticas feministas. En este texto se presenta un resumen teórico y analítico del total de la investigación, siendo esta visible en la página web del proyecto. El objetivo principal fue destacar cómo la IA puede reproducir y perpetuar prejuicios y estereotipos presentes en la sociedad a través de la generación de imágenes. Los resultados obtenidos respaldaron la hipótesis inicial, mostrando una tendencia de los algoritmos de IA a reflejar y amplificar los sesgos presentes en los datos de entrenamiento, siendo los más evidentes género y raza. Este estudio subraya la importancia de comprender y abordar los sesgos en la generación de imágenes con IA para garantizar equidad y representatividad. Además, destaca la necesidad de investigar desde las artes los campos más tecnológicos como la IA, ya que la intersección de estas disciplinas puede proporcionar perspectivas únicas y soluciones innovadoras para abordar los desafíos éticos y sociales planteados por el avance de la IA. Este enfoque integral puede fomentar un diálogo interdisciplinario en el desarrollo de IA, promoviendo una mayor conciencia sobre los posibles sesgos y la importancia de mitigarlos para construir sistemas más equitativos y responsables.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Sendrea, Mariana. "Artificial intelligence from an ethical perspective". In The 8th International Conference "Management Strategies and Policies in the Contemporary Economy". Academy of Economic Studies of Moldova, 2023. http://dx.doi.org/10.53486/icspm2023.34.

Testo completo
Abstract (sommario):
Rolul eticii este unul major în toate aspectele vieții, iar, actualmente, etica devine crucială în crearea și aplicarea inteligenței artificiale (IA) în diverse sfere de activitate. Etica, prin esența sa, oferă un cadru moral și principii de conduită, care sunt imperios necesare pentru asigurarea faptului că inteligența artificială este creată și utilizată într-un mod responsabil de către dezvoltatori. Etica implică o responsabilitate colectivă (a dezvoltatorilor, utilizatorilor, statului, societatății) în tot ce ține de construirea și utilizarea inteligenței artificiale într-un mod care să aducă efecte pozitive societății și să respecte valorile general-umane. Integrarea eticii în toate aspectele și etapele dezvoltării și aplicării inteligenței artificiale este esențială pentru a asigura societatea că tehnologia respectivă avansează într-un mod etic, durabil și responsabil pentru omenire. Scopul cercetării rezidă în elucidarea importanței aspectelor etice în toate etapele ce țin de dezvoltarea inteligenței artificiale. Odată ce inteligența artificială devine o componentă tot mai prezentă în viața socială este important să fie determinate limite în crearea și dezvoltarea acesteia. Dezvoltatorii sunt cei care au o contribuție substanțială în crearea de sisteme de inteligență artificială și aspectul eticii profesionale îi vizează în mod direct. În acest sens, stabilirea unor standarde ce țin atît de dezvoltatori cît și de sistemele create de către ei, este o necesitate majoră. Deja există elaborări la nivel micro și macro în acest sens, dar acest aspect e necesar de dezvoltat și monitorizat.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Alvarado Mariño, Constanza, Philippe Aniorte, Maria Catalina Ramírez Cajiao e Ricardo González. "Observación de la brecha digital: un reto para la transición digital y la apropiación de los sistemas 4.0". In Ingeniería: una transición hacia el futuro, 1–13. Asociación Colombiana de Facultades de Ingeniería - ACOFI, 2024. http://dx.doi.org/10.26507/paper.3635.

Testo completo
Abstract (sommario):
Transición Digital [TD] caracterizada de maneras diversas. Son algunos elementos de ésta la integración de dispositivos inteligentes, plataformas digitales, arquitecturas de sistemas, modelos tecno-funcionales que suponen computación autónoma (monitoreo, análisis, planeación, predicción) e información en tiempo real para la toma de decisiones. Todos los sectores y dominios de la sociedad están o van a ser impactados según el nivel de desarrollo de cada país, más allá que el sector de la industria donde nació la cuarta revolución industrial conocida como “Industria 4.0”, hace un poco más de una década. En la Educación (insertado el término “Educación 4.0”), la Salud, pasando por el Medio Ambiente, la Energía, la Agricultura, la Ciudad, entre otros., aparecen necesidades de diseñar y desarrollar Sistemas Ciber Físicos (Cyber Physical Systems – CPS, en inglés) inteligentes basados en Entornos Conectados [EC] en el marco del paradigma Internet of Everything [IoE], extensión del conocido Internet of Things [IoT]. Se puede hablar de “Tecnología 4.0” para enfatizar el carácter transversal e interdisciplinario de esos nuevos sistemas que requieren retomar la ingeniería “clásica”, especialmente la ingeniería de sistemas y afines que procuren por integrar de manera más rigurosa los conceptos de arquitectura, de (meta)modelo, como modelos específicos del dominio de aplicación, por ejemplo, hidrológicos en caso de un sistema de gestión del agua. Así igualmente clave las interfaces que soportan el uso del sistema y más allá su aceptabilidad y apropiación social. La TD impacta entidades, organizaciones, personas, en ámbitos laborales, como en lo cotidiano y común personal, en múltiples escenarios como estudiantes (educación), como empleados (en organizaciones públicas o privadas), y como ciudadanos ahora llamados digitales que realizan “transacciones digitales” esto es compras en línea, trámites administrativos, bancario y legales, entre otros, exacerbado con la pandemia que aceleró un proceso iniciado. Por otro lado, cada día y con más agudeza, profundiza un fenómeno de Brecha/distancia Digital [BD] (dados vacíos de competencias/habilidades, de uso y apropiación de elementos y requerimientos) contribuyendo al freno en el proceso de y hacia la TD. Este artículo presenta resultados en curso de un trabajo de investigación de colaboración transnacional entre Colombia, Panamá y Francia cuyo objetivo es analizar BD en contexto (in situ), a partir de factores identificados/categorizados previamente. El método de observación aplicado en un escenario educativo (lugar desde donde se proponen misiones de transformación hacia el desarrollo de competencias para resolución de problemas), en colegios de Bogotá-Colombia, teniendo como marco teórico el trabajo de una tesis doctoral defendida en la UPPA (Francia). Los numerosos datos recolectados serán procesados en siguiente trabajo mediante métodos estadísticos o Inteligencia Artificial (IA) para generar información predictiva y conocimiento para tomar decisiones de remediación hacia la inclusión digital punto clave de la TD. Son responsables en Colombia la Universidad ECCI, Universidad de los Andes, Ingenieros Sin Fronteras - ISF y la Comunidad Salesiana, el Instituto Nacional de Investigaciones en TIC - INDICATIC en Panamá y l’Université de Pau et de Pays de L’Adour - UPPA y el Laboratoire de Recherche en Informatique - LIUPPA en Francia, con proyección de aplicación a otros escenarios educativos, empleabilidad, gobierno.
Gli stili APA, Harvard, Vancouver, ISO e altri

Rapporti di organizzazioni sul tema "IA responsable"

1

Denis, Gabriela, María Hermosilla, Claudio Aracena, Roberto Sanchez, Natalia Gonzales e Cristina Pombo. Uso responsable de IA para política pública: manual de formulación de proyectos. Banco interamericano de Desarrollo, settembre 2021. http://dx.doi.org/10.18235/0003631.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Dilhac, Marc-Antoine, Vincent Mai, Carl-Maria Mörch, Pauline Noiseau e Nathalie Voarino. Penser l’intelligence artificielle responsable : un guide de délibération. Observatoire international sur les impacts sociétaux de l'IA et du numérique, marzo 2020. http://dx.doi.org/10.61737/nicj7555.

Testo completo
Abstract (sommario):
La fonction Délibération de l'OBVIA et Algora Lab ont développé, en partenariat avec CIFAR, un guide de délibération qui vise à outiller les participantes et participants en vue des différentes délibérations publiques organisées sur l'intelligence artificielle (IA). Le déploiement de l’IA affecte l’ensemble des citoyennes et des citoyens et pose des questions éthiques et politiques qui doivent faire l’objet d’une délibération citoyenne. Pour cela, il est primordial de consolider la littératie numérique du grand public, c’est-à-dire d’informer et d’outiller les citoyennes et les citoyens pour leur permettre de mieux comprendre les enjeux du développement responsable de l’IA et de participer aux délibérations publiques sur les principes et les normes de son déploiement. Le présent guide a précisément pour vocation de rendre accessible l’IA et les questions éthiques qui s’y rapportent, et d’introduire à la délibération sur l’éthique de l’IA. Il a aussi pour ambition d’outiller les communautés pour qu’elles organisent leurs propres délibérations sur l’IA et le déploiement des technologies numériques dans leur environnement social.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

García de Viedma, Darío, Laura Kirchner e Alicia León. Análisis de las percepciones sobre desigualdad en el contexto del Covid-19. Inter-American Development Bank, dicembre 2020. http://dx.doi.org/10.18235/0002981.

Testo completo
Abstract (sommario):
La inteligencia artificial (IA) ofrece oportunidades únicas para promover igualdad de oportunidades y mejorar la calidad de vida de todas las personas de la región. Mas allá de las posibilidades tecnológicas, su uso responsable y centrado en los individuos es esencial, además que supone grandes desafíos. El Banco Interamericano de Desarrollo (BID) aboga por construir un entendimiento común de lo que es la IA, sus oportunidades y sus aplicaciones, pero también de sus riesgos y posibles medidas para mitigarlos. Este informe es un esfuerzo del BID de utilizar la IA para entender las preocupaciones y opiniones de los ciudadanos de América Latina y el Caribe para así crear mejores políticas públicas.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Ulate Brenes, Eliana, Edgar Mora, Cristina Pombo, Carlos Rebellón, Nancy Vega, Gloriana Lang e Chaves Martínez Priscila. La importancia de establecer un marco orientador de política pública para el uso responsable y ético de la inteligencia artificial y su aplicación en Costa Rica. Banco Interamericano de Desarrollo, novembre 2021. http://dx.doi.org/10.18235/0003773.

Testo completo
Abstract (sommario):
El Ministerio de Ciencia, Tecnología y Telecomunicaciones (MICITT) de Costa Rica, en colaboración con el Banco Interamericano de Desarrollo (BID), y con apoyo del Consejo Asesor de fAIr LAC Costa Rica, elaboró este documento de referencia como insumo de una hoja de ruta que permita crear un marco para el uso ético, responsable y seguro de la IA en el país. Este esfuerzo está enmarcado en la iniciativa fAIr LAC y está basado en el modelo de la quíntuple hélice de innovación del ecosistema costarricense a través de un Consejo Asesor, el cual reúne al sector privado (America Free Zone -AFZ, Intel, Microsoft), la academia (INCAE), el sector público (CCSS, MEP, MICITT, MEP, SINIRUBE y el BID), la sociedad civil (CINDE, Programa Estado de la Nación), y el ecosistema emprendedor (BID Lab e Innova 10x). Con el rápido avance de la tecnología y la ciencia, el uso de la inteligencia artificial (IA) se ha vuelto cada vez más común en la vida de las personas, generando un impacto significativo en la economía, la sociedad y el medio ambiente. En tal sentido, se requiere una respuesta rápida, asertiva e inclusiva por parte de los países en materia de políticas, estrategias, regulación y generación de capacidades. Por ello, como un paso inicial hacia un abordaje proactivo de estos desafíos, con este documento se pretende contribuir a crear las condiciones necesarias para impulsar la IA como uno de los aceleradores más importantes en la actualidad. En este documento se incorpora una guía de lo que debe entenderse como marco ético de la IA; se esboza un primer barrido no exhaustivo de las mejores prácticas internacionales a nivel global y regional; se describen algunos de los esfuerzos del país en materia de políticas nacionales y estrategias que contribuyen a definir esta hoja de ruta; y se presentan los principales esfuerzos que en materia de IA que se están llevando a cabo en Costa Rica.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Gautrais, Vincent, Anne Tchiniaev e Émilie Guiraud. Formulaire du Guide des bonnes pratiques en IA: Disposition de la Loi 25 et bonnes pratiques. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, luglio 2023. http://dx.doi.org/10.61737/pupd4808.

Testo completo
Abstract (sommario):
Ce document, qui se présente sous la forme d’un formulaire, propose une liste de questions relatives à certaines obligations légales découlant de la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (« Loi 25 ») ainsi qu’aux bonnes pratiques pour les entreprises et les organismes publics qui utilisent l’IA. Tant les obligations explicitement identifiées dans la Loi 25 que celles que nous avons mis de l’avant dans le présent Guide sont mises en perspective dans ce formulaire. Le formulaire est divisé en sept sections reprenant les sept principes relatifs à l’utilisation des données et à la protection des renseignements personnels dans un contexte d’IA formulés dans le présent Guide. Il permet au répondant d’évaluer sa conformité aux principales obligations visant à assurer une circulation responsable des données. Le formulaire a été construit selon un effet miroir dans lequel certaines des obligations légales de la Loi 25 se reflètent sur les bonnes pratiques en matière d’IA.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Hulin, Anne-Sophie. Enjeux sociétaux de l'IA 101 : un guide pour démystifier les enjeux éthiques et juridiques des systèmes d’IA. Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, agosto 2024. http://dx.doi.org/10.61737/nneu6499.

Testo completo
Abstract (sommario):
Le développement de l’intelligence artificielle présente de nombreux bénéfices pour les individus et les sociétés, mais aussi d’importants enjeux. Leur intégration progressive à nos usages personnels et professionnels et leur performance évolutive suscitent des questionnements sur les risques associés à cette transformation technologique dans nos rapports sociaux à l’échelle mondiale. Comment assurer le développement éthique et responsable de ces IA afin que ces technologies puissent bénéficier à l’ensemble des sociétés? Cette boîte à questions vise à démystifier les concepts et les caractéristiques des systèmes d’intelligence artificielle et leurs enjeux éthiques et juridiques afin d’en stimuler les réflexions et les débats.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Roveri, Camilla. Inteligencia Artificial para el bienestar y una vida sana en Latinoamérica: Hacia un ecosistema de innovación responsable para la salud digital. Fundación Carolina, dicembre 2022. http://dx.doi.org/10.33960/ac_21.2022.

Testo completo
Abstract (sommario):
En los últimos años se está asistiendo a un rápido progreso de diferentes tecnologías emergentes, entre otras la inteligencia artificial (IA). El impacto de esta tecnología en la sociedad es evidente, sobre todo en la salud, área en la que ha traído importantes beneficios dada la transversalidad de su uso. Salud y bienestar son catalizadores del desarrollo humano de un país y elementos que indican un grado de efectivo desarrollo de una sociedad. Garantizar acceso a salud digna y de calidad para todas las personas es una cuestión que ha estado presente en las políticas públicas y en las agendas de cooperación internacional, pero ha vuelto con mucha más urgencia con la pandemia de SARS-Cov-2. De ahí la necesidad de que los avances tecnológicos se orienten a enfrentar los retos, tanto sociales como medioambientales, con el objetivo de fomentar un desarrollo humano que no deje a nadie atrás.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Mörch, Carl-Maria, Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis e Xavier Dionne. Recommandations pratiques pour une utilisation responsable de l’intelligence artificielle en santé mentale en contexte de pandémie. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, dicembre 2020. http://dx.doi.org/10.61737/mqaf7428.

Testo completo
Abstract (sommario):
La pandémie actuelle a provoqué une onde de choc dont les conséquences se font sentir dans tous les aspects de notre vie. Alors que la santé physique a été généralement au cœur de l’attention scientifique et politique, il est devenu clair que la pandémie de COVID-19 a influé significativement sur la santé mentale de nombreux individus. Plus encore, elle aurait accentué les fragilités déjà existantes dans nos systèmes de santé mentale. Souvent moins financé ou soutenu que la santé physique, le domaine de la santé mentale pourrait-il bénéficier d’innovations en intelligence artificielle en période de pandémie ? Et si oui comment ? Que vous soyez développeur.e.s en IA, chercheur.e.s ou entrepreneur.e.s, ce document vise à vous fournir une synthèse des pistes d’actions et des ressources pour prévenir les principaux risques éthiques liés au développement d’applications d’IA dans le champ de la santé mentale. Pour illustrer ces principes, ce document propose de découvrir quatre cas fictif, à visée réaliste, à partir desquels il vous sera proposé de porter attention aux enjeux éthiques potentiels dans cette situation, aux enjeux d’innovation responsable à envisager, aux pistes d’action possibles inspirées de la liste de contrôle (Protocole Canadien conçu pour favoriser une utilisation responsable de l’IA en santé mentale et prévention du suicide, Mörch et al., 2020), aux ressources pratiques et à certains enjeux juridiques pertinents. Ce document a été élaboré par Carl-Maria Mörch, PhD, Algora Lab, Université de Montréal, Observatoire International sur les impacts sociétaux de l’Intelligence Artificielle et du Numérique (OBVIA), Mila – Institut Québécois d’Intelligence Artificielle, avec les contributions de Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis et Xavier Dionne.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

de Marcellis-Warin, Nathalie. Analyse comparative d’écosystèmes en IA dans le but de repérer les pratiques innovantes en matière de formation et de transfert de connaissances. CIRANO, novembre 2022. http://dx.doi.org/10.54932/sxoh3928.

Testo completo
Abstract (sommario):
Les défis actuels des écosystèmes en IA sont caractérisés par une forte demande de talents en intelligence numérique, une demande de formations qui répondent aux besoins du marché, l’émergence de nouveaux profils d’emploi, une demande en hausse pour le rehaussement des compétences des travailleurs en emploi et une adoption de l’IA par les entreprises encore limitée à certains secteurs. C’est ce qui a motivé la mise en place de nombreuses initiatives des établissements d’enseignements et d’autres types d’acteurs, autant en matière de formation que de transfert de connaissances. Pour le Québec, les rapports qui ont été publiés en 2020 et 2021 ainsi que les entrevues menées auprès des acteurs de l’écosystème en IA ont permis de faire un survol des forces et des faiblesses. Le Québec est reconnu pour son importante communauté de recherche en IA et son positionnement pour un développement responsable de l’IA. De nombreux établissements d’enseignement ont remodelé leurs programmes pour répondre aux enjeux du numérique et aux besoins du marché. Des initiatives concertées cégeps-universités ont été mises en place et des collaborations de recherche appliquée ou l’intégration de stages ont vu le jour. Plusieurs instituts et organisations participent à accompagner les entreprises dans l’adoption de l’IA. Toutefois, la multiplicité des acteurs est souvent vue comme un obstacle pour les entreprises. Plusieurs organisations n’utilisent pas l’IA faute de compréhension générale de l’IA et de ses applications et en raison de la difficulté d’évaluer leur niveau de maturité, d’identifier les compétences nécessaires ou les besoins de formation pour les employés. Dans le cadre de cette étude, six grands constats ont pu être faits concernant les pratiques innovantes en matière de formation et de transfert de connaissances existantes à partir de l’analyse de plusieurs écosystèmes en IA dans plusieurs régions du monde. À la suite de ces constats et des discussions que nous avons eues avec des représentants de l’écosystème québécois, nous avons identifié certaines pistes qui pourraient être recommandées pour le Québec.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Taherizadeh, Amir, e Cathrine Beaudry. Vers une meilleure compréhension de la transformation numérique optimisée par l’IA et de ses implications pour les PME manufacturières au Canada - Une recherche qualitative exploratoire. CIRANO, giugno 2021. http://dx.doi.org/10.54932/jdxb2231.

Testo completo
Abstract (sommario):
Ce rapport présente les principaux résultats d’une étude qualitative exploratoire visant à examiner l’impact de l’intelligence artificielle (IA), en tant que technologie à usage général (TUG) sur la productivité et l’emploi à l’échelle de l’entreprise. À la suite de l’analyse de sources de données primaires et secondaires (comprenant 27 entretiens, rapports et discussions de groupe), nous établissons d’abord une échelle de maturité de l’adoption de l’IA et un classement des petites et moyennes entreprises (PME) qui intègrent l’IA dans leurs processus de travail en quatre archétypes : l’Aspirant, le Fonceur, le Leader et le Visionnaire. Nous définissons chaque archétype de façon à mettre en évidence les changements particuliers à opérer pour qu’une entreprise puisse passer à l’étape suivante de l’adoption de l’IA. Deuxièmement, nous définissons et examinons sept obstacles à l’adoption généralisée de l’IA par les PME manufacturières. Troisièmement, à l’aide de trois études de cas, nous explorons trois projets d’IA menés par des entreprises québécoises axées sur l’IA afin de montrer, d’une part, l’apport de l’intégration de l’apprentissage automatique (AA) aux produits et aux processus de travail sur le plan de la productivité des entreprises, et d’autre part son effet sur leurs effectifs. Dans l’ensemble, les résultats de notre étude suggèrent que la réussite de l’intégration de l’IA nécessite une transformation numérique au niveau de l’entreprise, que nous présentons comme un continuum. Dans les premières étapes, où l’adoption de l’IA se fait autour de projets (en particulier pour les entreprises des catégories Aspirant et Fonceur), les effectifs des entreprises ont tendance à augmenter parallèlement aux gains de productivité en même temps que le perfectionnement indispensable des compétences de la main-d’œuvre existante. En outre, lorsque l’IA est déployée à l’échelle de l’entreprise (chez les Leaders et les Visionnaires) et que cette dernière rehausse le niveau de ses activités d’innovation, on enregistre plutôt des pertes d’emploi parallèlement aux gains de productivité. Par la suite, nous introduisons des indicateurs indirects de l’omniprésence de l’IA, car nous estimons qu’il s’agit de mesures plus réalistes pour évaluer le taux d’adoption de l’IA par les PME en phase fluide. Enfin, nous proposons quatre recommandations qui ont des implications pour les chercheurs, les praticiens et les responsables politiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia