Artigos de revistas sobre o tema "Explicabilidad"

Siga este link para ver outros tipos de publicações sobre o tema: Explicabilidad.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 35 melhores artigos de revistas para estudos sobre o assunto "Explicabilidad".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja os artigos de revistas das mais diversas áreas científicas e compile uma bibliografia correta.

1

Ortiz de Zárate Alcarazo, Lucía. "Explicabilidad (de la inteligencia artificial)". EUNOMÍA. Revista en Cultura de la Legalidad, n.º 22 (23 de março de 2022): 328–44. http://dx.doi.org/10.20318/eunomia.2022.6819.

Texto completo da fonte
Resumo:
de digitalización en la Unión Europea (UE). A pesar de sus grandes beneficios este grupo de tecnologías emergentes también presenta importantes riesgos y desafíos éticos que deben abordarse. Por ello, la UE ha propuesto cuatro principios éticos fundamentales para la IA: la justicia, el respeto por la autonomía humana, la previsión del daño y la explicabilidad. El concepto central de este trabajo es la explicabilidad de la IA (XAI). De este modo, además de poner en contexto la importancia de este principio ético, se abordarán los aspectos centrales en torno al mismo: qué es la explicabilidad; por qué son importantes las explicaciones (en el ámbito de la IA); cuándo es necesario dar explicaciones y de qué tipo de explicaciones disponemos para hacer comprender a la ciudadanía las decisiones tomadas por sistema de IA.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

García Marzá, Domingo. "Ética digital discursiva: de la explicabilidad a la participación". Daimon, n.º 90 (1 de setembro de 2023): 99–114. http://dx.doi.org/10.6018/daimon.562821.

Texto completo da fonte
Resumo:
This article is intended to present a proposal for dialogic digital ethics on a critical reading of the European Commission's independent high-level expert group’s document Ethics Guidelines for Trustworthy AI (2019). These would be digital ethics with a normative horizon for action and criteria for justice based on dialogue and possible agreement between all agents involved and affected by the digital reality. The aim is to show that the participation of all parties involved is not merely advisable but morally required as part of the Commission’s effort to generate common European willingness and governance to deal with the fourth industrial revolution now going on. The acknowledgement of equal dignity implied by people-centric artificial intelligence (AI) is utterly unthinkable without this possibility of equal participation. Without it, trust cannot be generated or guaranteed. As we intend to show, the new principle of explicability plays a decisive role in this objective as a principle with a moral as well as an instrumental. El presente artículo tiene como objetivo presentar los rasgos básicos de una ética digital dialógica a partir de una lectura crítica del documento elaborado por grupo independiente de expertos de alto nivel para la Comisión Europea Ethics Guidelines for Trustworthy AI (High-level expert Group on Artificial Intelligence, 2019). Una ética digital que tiene en el diálogo y acuerdo posible de todos los agentes implicados y afectados por la realidad digital su horizonte normativo de actuación, su criterio de justicia. La finalidad es mostrar que, en su esfuerzo por generar una voluntad común y una gobernanza europeas ante la actual revolución industrial, la participación de todas las partes implicadas no solo es recomendable sino moralmente exigible. El reconocimiento de la igual dignidad que implica una Inteligencia Artificial centrada en las personas no es ni siquiera pensable sin el horizonte de una participación igual. Sin ella, la confianza no puede generarse ni garantizarse. Como pretendemos mostrar, en este objetivo juega un papel decisivo el nuevo principio de explicabilidad, principio que posee un valor moral y no solo instrumental.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Blázquez Ruiz, F. Javier. "paradoja de la transparencia en la IA". Revista Internacional de Pensamiento Político 17 (27 de dezembro de 2022): 261–72. http://dx.doi.org/10.46661/revintpensampolit.7526.

Texto completo da fonte
Resumo:
Con la irrupción de las nuevas tecnologías, la Inteligencia Artificial (IA) está convirtiéndose en una especie de nueva religión monoteísta, y los algoritmos, como si fueran oráculos, se tornan cada vez más omniscientes. No importa su grado de opacidad o la falta de trazabilidad que ostenten. Cada día que pasa el culto a los algoritmos deviene cada vez más reverencial. Parecen sagrados. Entre tanto, las cajas negras impiden que se cumplan los principios de transparencia y explicabilidad. A su vez la atribución de responsabilidad tiende a diluirse.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Castellanos Claramunt, Jorge. "Sobre los desafíos constitucionales ante el avance de la Inteligencia Artificial. Una perspectiva nacional y comparada". Revista de Derecho Político, n.º 118 (3 de dezembro de 2023): 261–87. http://dx.doi.org/10.5944/rdp.118.2023.39105.

Texto completo da fonte
Resumo:
El presente artículo tiene como objetivo analizar la regulación actual sobre inteligencia artificial y los desafíos que plantea desde una perspectiva jurídica. Y es que la inteligencia artificial abarca la práctica totalidad de las actuaciones diarias de los ciudadanos. Teniendo en cuenta que el derecho es el garante de la correcta ordenación de las relaciones entre las personas y que, en un sistema democrático, son imprescindibles las garantías en el respeto de los derechos fundamentales de los ciudadanos, la relación que existe entre los tres elementos citados es incuestionable.En primer lugar, se examina la regulación sobre la IA en Europa, destacando las normas y políticas que han sido adoptadas en la Unión Europea y en algunos países miembros. En segundo lugar, se realiza una exposición comparativa de la regulación y planteamiento europeo respecto al resto de países protagonistas en cuanto a IA, como Estados Unidos y China, principalmente.En tercer lugar, se analizan los desafíos constitucionales que plantea la IA, incluyendo cuestiones de protección de la privacidad, el derecho a la igualdad y no discriminación, y la responsabilidad legal en caso de daños causados por sistemas de IA. En cuarto lugar, se aborda la importancia de la transparencia y explicabilidad algorítmicas en el uso de sistemas de IA, ya que la falta de claridad en el funcionamiento de estos sistemas puede llevar a decisiones discriminatorias o perjudiciales.Finalmente, en las conclusiones se destaca la necesidad de una regulación específica y coherente para la IA, que aborde los desafíos jurídicos y éticos que plantea esta tecnología. Se enfatiza la importancia de la transparencia y la explicabilidad algorítmica para garantizar la protección de los derechos fundamentales, y se invita a los legisladores a trabajar en conjunto con expertos en IA y otras disciplinas para lograr una regulación efectiva.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Rivas Vallejo, Pilar. "Sesgos de género en el uso de inteligencia artificial para la gestión de las relaciones laborales: análisis desde el derecho antidiscriminatorio." E-REVISTA INTERNACIONAL DE LA PROTECCION SOCIAL 7, n.º 1 (2022): 52–83. http://dx.doi.org/10.12795/e-rips.2022.i01.04.

Texto completo da fonte
Resumo:
El análisis jurídico de la discriminación derivada de decisiones automatizadas que puedan provocar un impacto discriminatorio requiere combinar dos campos jurídicos: el de la protección de datos y el derecho antidiscriminatorio. En el primero los derechos reconocidos son accesorios al núcleo principal de afectación: el derecho de intervención humana y, principalmente, la explicabilidad de los algoritmos, manifestación de la debida justificación objetiva y razonable que acompaña a las decisiones prima facie discriminatorias para eludir su calificación como tales. Pero el tratamiento jurídico de la discriminación algorítmica requiere, también, dar respuesta a problemas de calificación de los sesgos en los que incurre el aprendizaje automático como resultado de las infinitas inferencias de datos que perfilan a personas en el contexto del derecho antidiscriminatorio, donde potencian su impacto discriminatorio, como son la discriminación por asociación o la discriminación múltiple o interseccional.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Fernández-Aller, Celia, e María Mercedes Serrano Pérez. "¿Es posible una Inteligencia artificial respetuosa con la protección de datos?" Doxa. Cuadernos de Filosofía del Derecho, n.º 45 (7 de junho de 2022): 307. http://dx.doi.org/10.14198/doxa2022.45.11.

Texto completo da fonte
Resumo:
La Inteligencia artificial es un reto clave en la cuarta revolución industrial que vivimos. El artículo pretende analizar la compatibilidad de ésta con el derecho a la protección de datos. Para ello se analizan los principios que subyacen a la regulación y se estudia el encaje de las características de la tecnología en los mismos. Se destacan los principales derechos de los sujetos, así como las obligaciones de los responsables de los tratamientos. Especial atención se presta a la discriminación algorítmica en el caso de los perfiles y el marketing político, que supone un reto a evitar por su vulneración del principio de igualdad y justicia en el tratamiento de la información personal. Resulta esencial salvaguardar el derecho a la explicabilidad algorítmica. Se concluye con un análisis de la necesaria regulación que está en fase de discusión en Europa.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Azuaje Pirela, Michelle. "Propiedad intelectual como herramienta para promover la transparencia y prevenir la discriminación algorítmica". Revista Chilena de Derecho y Tecnología 12 (4 de setembro de 2023): 1–34. http://dx.doi.org/10.5354/0719-2584.2023.70131.

Texto completo da fonte
Resumo:
En este artículo se analizan algunos de los principales desafíos legislativos y de políticas públicas para el sistema de propiedad intelectual frente a la Cuarta Revolución Industrial. Asimismo, se proponen alternativas que pueden integrarse a la legislación y políticas de propiedad intelectual para que esta sirva como herramienta para el impulso de innovaciones sostenibles y responsables coherentes con el escenario tecnológico actual, que, a su vez, contribuyan con la promoción de la transparencia y la prevención de la discriminación algorítmica. En ese sentido, en primer lugar, se ofrecen alternativas para flexibilizar o garantizar el acceso a más y mejores datos para obtener mejores desarrollos; y, en segundo lugar, medidas que pueden promover o garantizar la transparencia algorítmica, la explicabilidad y la auditabilidad de los sistemas dando acceso a ciertas autoridades para prevenir, explicar o mitigar los sesgos discriminatorios.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Sáez Lara, Carmen. "Gestión algorítmica empresarial y tutela colectiva de los derechos laborales". Cuadernos de Relaciones Laborales 40, n.º 2 (22 de julho de 2022): 283–300. http://dx.doi.org/10.5209/crla.79417.

Texto completo da fonte
Resumo:
Aunque los efectos de la IA sobre el trabajo son aún inciertos, en la gestión empresarial algorítmica (desde la contratación al despido) se han descrito ya efectos sobre la intimidad, protección de datos, igualdad y salud laboral. Resolver el binomio IA y prohibición de discriminación obligará a la adaptación de la normativa antidiscriminatoria, introduciendo regulaciones que impongan la transparencia, explicabilidad y responsabilidad algorítmica. El análisis de los diversos documentos y normas, tanto en la Unión Europea como en nuestro país, relativos a la tutela de los derechos de las personas trabajadoras en el contexto de la gestión empresarial algorítmica, será el objeto de este trabajo. Y se comprobará su principal laguna, el enfoque exclusivamente individual, la ausencia de instrumentos de tutela sindical de los derechos laborales. Por ello, se analizarán las competencias de los representantes sindicales sobre el control de la IA y se formularán propuesta de reforma normativa.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Sanahuja Sanahuja, Rosana, e Pablo López Rabadán. "Ética y uso periodístico de la inteligencia artificial. Los medios públicos y las plataformas de verificación como precursores de la rendición de cuentas en España". Estudios sobre el Mensaje Periodístico 28, n.º 4 (21 de dezembro de 2022): 959–70. http://dx.doi.org/10.5209/esmp.82385.

Texto completo da fonte
Resumo:
La aplicación de la inteligencia artificial (IA) en el periodismo es una tendencia en desarrollo que afecta significativamente al modelo de producción y difusión periodístico. Como consecuencia, el uso de esta tecnología plantea diferentes retos éticos. En este contexto, la transparencia se sitúa como un principio clave para avanzar hacia un uso responsable de la IA por parte de los medios. El presente estudio analiza las webs corporativas y los blogs editoriales, principales espacios de rendición de cuentas, de nueve medios españoles vinculados a tres modelos profesionales diferentes: medios digitales, plataformas de verificación y entes públicos de radiotelevisión. Los resultados evidencian que ciertos medios públicos como RTVE están siendo precursores en la explicabilidad de su relación con la IA. Y por otra parte, el compromiso de las plataformas de verificación con la descripción de su metodología profesional favorece la transparencia sobre el uso que hacen de datos, algoritmos y automatizaciones.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Monfort Mir, Vicente M. "Recursos y capacidades de la hotelería del litoral". Revista de Estudios Turísticos, n.º 143 (11 de setembro de 2023): 25–63. http://dx.doi.org/10.61520/et.1432000.829.

Texto completo da fonte
Resumo:
El objetivo de este artículo es indagar en las diferencias internas detectadas en el área de la empresa hotelera individual, por ser en aquéllas en las que se enraiza la máxima fuerza explicativa de la competitividad de los espacios turísticos, encarnada en la actuación singular y distintiva de los negocios allí instalados. Ello se afronta desde la perspectiva expresada por la "hotelería de litoral", como ámbito de empresa seleccionado en dos destinos clásicos mediterráneos: Benidorm y Peñíscola. En ambos, la planta hotelera ha jugado un papel principal en la evolución de sus respectivos modelos turísticos, descansando buena parte de la explicabilidad competitiva que se observa en la actualidad, en la gestión diferenciada de los establecimientos hoteleros. La investigación correspondiente es la formulación analítica de los Recursos y Capacidades, a partir de la cual se ha tratado de medir diferentes aspectos de la ventaja competitiva, como exponente y garante del éxito empresarial.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Temesio Vizoso, Silvana Grazia. "Reflexiones sobre la inteligencia artificial y la bibliotecología". Palabra Clave (La Plata) 11, n.º 2 (1 de abril de 2022): e159. http://dx.doi.org/10.24215/18539912e159.

Texto completo da fonte
Resumo:
La inteligencia artificial (IA) se manifiesta en algoritmos cuyo desempeño es difícil de predecir o explicar. Estos algoritmos se aplican a cuestiones de la vida cotidiana de los ciudadanos, como por ejemplo el otorgamiento de un préstamo bancario, y han empezado a utilizarse por parte del gobierno electrónico. Actualmente se investiga la aplicación de IA a todos los campos del conocimiento. En este trabajo se refieren brevemente algunos desarrollos en las ciencias de la información y se presentan algunos de los desafíos que plantea la aplicación de IA, como el sesgo y la opacidad. Frente a estos desafíos hay opiniones de la ética de la información, el movimiento de software libre e investigaciones académicas para mejorar la explicabilidad de IA (XAI). Por último, se detalla sucintamente la estrategia de gobierno electrónico en Uruguay. Queda abierta la reflexión y, en particular, se recomienda la inclusión en la formación académica de estos temas en las carreras de bibliotecología.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Morte Ferrer, Ricardo. "Valoraciones éticas para una inteligencia artificial adecuada a la privacidad". Arbor 197, n.º 802 (30 de dezembro de 2021): a628. http://dx.doi.org/10.3989/arbor.2021.802006.

Texto completo da fonte
Resumo:
Desde hace ya bastante tiempo existe una tendencia a afirmar que el derecho o las normas de diferente tipo no son adecuadas o aplicables para las diferentes nuevas tecnologías que van apareciendo de forma continua (computación en la nube, big data, Internet de las cosas, robots, inteligencia artificial...). Este trabajo intentará dar la vuelta a ese razonamiento y, centrándose en la inteligencia artificial, tratará de plantear criterios adecuados para que esa tecnología y muchas otras sean desarrolladas y aplicadas de forma adecuada a los derechos fundamentales en general y a la privacidad en particular. Dentro de esos criterios se analizará lo que debe aportar la explicabilidad de la tecnología mencionada (requisito introducido por diferentes grupos de expertos) y se profundizará en algunos conceptos adicionales como la posibilidad y la necesidad de controlar (hasta el punto de poder detener en cualquier momento un sistema de inteligencia artificial) y de auditar sistemas de inteligencia artificial. Para realizar la mencionada profundización se recurrirá a lo que se conoce como objetivos de protección (disponibilidad, confidencialidad, integridad, transparencia, no encadenabilidad y capacidad de intervenir) y a los principios de la ciberética, incluyendo una referencia especial a la sostenibilidad y a la resiliencia de este tipo de sistemas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Palma, Mauro. "Principia iuris de Luigi Ferrajoli". Doxa. Cuadernos de Filosofía del Derecho, n.º 31 (15 de novembro de 2008): 289. http://dx.doi.org/10.14198/doxa2008.31.19.

Texto completo da fonte
Resumo:
El texto desarrolla dos observaciones y evidencia, sucesivamente, algunos puntos críticos. La primera observación es que la construcción propuesta tiene fundamento en la afirmación que señala una intrínseca interdependencia entre la democracia y el Derecho y entre el Derecho y la razón: de aquí nace la elección de una teoría axiomatizada del Derecho. El sistema axiomático formal, por tanto, no es parte accesoria, eliminable de la obra; es, por el contrario, su intrínseca estructura y razón. La segunda observación es que la estructura que surge es la de un «constitucionalismo fuerte» que identifica un sistema de límites y también de obligaciones al poder, que sin ellas sería soberano, de la mayoría. A partir de estas observaciones preliminares, se analizan algunos puntos. El primero reside en el carácter intrínsecamente inacabado del sistema, característica que FERRAJOLI presenta como un valor adjunto. El segundo es la relación de la formalización con la explicabilidad del lenguaje y, por tanto, con la comunicabilidad del Derecho. El tercero es el doble rol del sistema axiomático: definir un posible universo de discurso o describir rigurosamente un universo ya definido de otro modo. El último nodo es la aplicabilidad del método propuesto a los sistemas de Derecho contemporáneo, fuertemente influenciados por el contacto directo con los sistemas del common law.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Simón Castellano, Pere. "Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial". Revista de Derecho Político, n.º 117 (14 de julho de 2023): 153–96. http://dx.doi.org/10.5944/rdp.117.2023.37929.

Texto completo da fonte
Resumo:
En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Acioly, Luis Henrique De Menezes, Isabelle Brito Bezerra Mendes e João Araújo Monteiro Neto. "AS AVALIAÇÕES DE IMPACTO COMO INSTRUMENTOS DE INTELIGIBILIDADE ALGORÍTMICA E GARANTIA DE DIREITOS FUNDAMENTAIS NA REGULAÇÃO DE INTELIGÊNCIA ARTIFICIAL". Diké - Revista Jurídica 22, n.º 24 (28 de dezembro de 2023): 225–51. http://dx.doi.org/10.36113/dike.24.2023.3973.

Texto completo da fonte
Resumo:
No contexto da discussão acerca da ética aplicada ao uso de sistemas de inteligência artificial, destaca-se a necessidade de transparência no processo decisório que envolva ou afete a vida humana. Tais algoritmos de aprendizado apresentam um potencial discriminatório que afeta diretamente direitos fundamentais, de forma que há uma movimentação de diversos atores para definição de parâmetros inerentes a uma IA responsável. O presente estudo parte dessa premissa para buscar fornecer subsídios à aplicação prática da transparência em sistema de IA, a partir da contextualização do conceito de inteligibilidade nos instrumentos de avaliação de impacto dessas tecnologias e de processos que envolvam dados pessoais. Para tanto, o presente estudo valeu-se da metodologia de revisão de literatura, a partir de pesquisa bibliográfica de abordagem qualitativa, para: contextualizar a discussão acerca sobre vetores éticos da IA ao panorama sobre discriminação algorítmica; abordar a conceituação de opacidade, transparência, inteligibilidade e explicabilidade, fazendo correlação com o movimento de IA Explicável; e analisar a estrutura dos instrumentos de avaliação de impacto para correlacioná-los à proteção de direitos fundamentais. Obteve-se como resultado principal que o conceito de explicabilidade como a interface entre sistema inteligente e ser humano, para ser atrelado a um instrumento de avaliação de impacto, precisa partir da premissa de que há uma gama de abordagens interativas, o que se convenciona denominar de multicamadas, viabilizando uma governança social dos algoritmos e promovendo direitos fundamentais no contexto tecnológico.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Siqueira, Dirceu Pereira, Fausto Santos de Morais e Marcel Ferreira dos Santos. "Inteligência artificial e jurisdição: dever analítico de fundamentação e os limites da substituição dos humanos por algoritmos no campo da tomada de decisão judicial". Seqüência Estudos Jurídicos e Políticos 43, n.º 91 (9 de novembro de 2022): 1–34. http://dx.doi.org/10.5007/2177-7055.2022.e90662.

Texto completo da fonte
Resumo:
Este artigo objetiva, de modo geral, identificar os limites à utilização da Inteligência Artificial (IA) na tomada de decisão judicial, tendo como objetivos específicos: (i) descrever o contexto da utilização da IA a partir do devido processo legal; (ii) identificar as hipóteses de fundamentação analítica prevista na legislação ordinária e a sua conformação a partir da utilização de instrumentos de IA, com foco na explicabilidade. A operacionalização da jurisdição, no contexto de atual de um sistema de justiça permeado por instrumentos de IA, deve encontrar limites na Constituição da República, na teoria da decisão judicial e em regras específicas de hermenêutica jurídica. Tais limites, todavia, não foram criados com olhos voltados à IA, razão pela qual remanesce a necessidade de se identificar balizas para utilização ética de ferramentas tecnológicas no Poder Judiciário. Como problema de pesquisa, pretende-se discutir quais são os limites à utilização da IA na tomada de decisão, seja no campo cível, seja no campo criminal, a partir da chamada fundamentação analítica, prevista nos artigos 489, §1º, CPC, e 315, §2º, CPP. O método de procedimento utilizado é o hipotético-dedutivo. A técnica de pesquisa é a bibliográfica. Aventa-se, como hipótese, que o Poder Judiciário, enquanto instrumento de tutela de direitos fundamentais e da personalidade, ao exercitar a tomada de decisão com base em instrumentos de IA, está limitado, a princípio, a decisões repetitivas destituídas de complexidade, as quais, inclusive, atendem ao dever de fundamentação quando trabalhado o conceito da explicabilidade, sob pena de violação ao devido processo legal.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Fidalgo, Luiza Barreto Braga. "Discriminações algorítmicas: racismo e sexismo nas relações laborais". Brazilian Journal of Development 8, n.º 10 (14 de outubro de 2022): 67341–54. http://dx.doi.org/10.34117/bjdv8n10-165.

Texto completo da fonte
Resumo:
O presente artigo possui como escopo a análise de utilização de mecanismos de inteligência artificial nas relações trabalhistas, perpassando pelo exame da necessidade de transparência algorítmica a fim de que não haja a perpetuação de discriminações raciais, de gênero, fomentando desigualdades sociais, em prejuízo de trabalhadores. As propostas de conformação de vieses algorítmicos e de ações compensatórias em face de práticas discriminatórias estão intrinsecamente ligadas à salvaguarda de princípios afetos à acurácia, à explicabilidade e à inteligibilidade de mecanismos de IA, como uma forma de evitar a exclusão apriorística de grupos marginalizados nas fases de contratação, manutenção e ascensão profissionais.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Kaufman, Dora, Tainá Junquilho e Priscila Reis. "Externalidades negativas da inteligência artificial: conflitos entre limites da técnica e direitos humanos". Revista de Direitos e Garantias Fundamentais 24, n.º 3 (4 de dezembro de 2023): 43–71. http://dx.doi.org/10.18759/rdgf.v24i3.2198.

Texto completo da fonte
Resumo:
A técnica de aprendizado de máquina presente na maioria das implementações atuais de inteligência artificial, é um modelo estatístico de probabilidade. Além da variável de incerteza intrínseca a modelos probabilísticos, a maneira como algoritmos correlacionam dados, as bases de enviesadas, e a subjetividade humana nas decisões, engendram externalidades negativas que ameaçam direitos humanos fundamentais. O propósito do artigo é analisar essas externalidades, identificando as ameaças a três direitos humanos fundamentais: o direito à explicabilidade, privacidade, e não discriminação. A metodologia investigou garantias legais versus limites da técnica, evidenciado que esses limites se constituem em barreiras à conformidade legal e regulatória. Palavras-chave: Inteligência Artificial. Direitos Humanos. Externalidades.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

G. Webber, Carine, e Diego Flores. "Ensino De Inteligência Artificial: Abordando Aspectos Éticos Na Formação Docente". RENOTE 20, n.º 2 (2 de janeiro de 2023): 73–82. http://dx.doi.org/10.22456/1679-1916.129152.

Texto completo da fonte
Resumo:
Internacionalmente, o ensino da IA tem emergido como uma prioridade uma vez que tem-se a primeira geração de crianças usuárias de produtos de IA. Sensível às questões éticas relacionadas ao uso da IA, a UNESCO recomenda a implementação de ações em resposta às oportunidades e desafios apresentados pela IA e relacionados à educação. Os valores e princípios que devem ser observados compreendem o respeito aos direitos humanos, justiça e não discriminação e a transparência e explicabilidade da IA. Nesta direção, currículos e materiais didáticos têm sido criados e disponibilizados. Contudo, a integração aos componentes curriculares depende da formação docente apropriada. Neste sentido, este artigo descreve uma proposta de formação docente continuada em IA.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Dourado, Daniel de Araujo, e Fernando Mussa Abujamra Aith. "A regulação da inteligência artificial na saúde no Brasil começa com a Lei Geral de Proteção de Dados Pessoais". Revista de Saúde Pública 56 (9 de setembro de 2022): 80. http://dx.doi.org/10.11606/s1518-8787.2022056004461.

Texto completo da fonte
Resumo:
A inteligência artificial se desenvolve rapidamente e a saúde é uma das áreas em que as novas tecnologias desse campo são mais promissoras. O uso de inteligência artificial tem potencial para modificar a forma de prestação da assistência à saúde e do autocuidado, além de influenciar a organização dos sistemas de saúde. Por isso, a regulação da inteligência artificial na saúde é um tema emergente e essencial. Leis e normas específicas são elaboradas em todo o mundo. No Brasil, o marco inicial dessa regulação é a Lei Geral de Proteção de Dados Pessoais, a partir do reconhecimento do direito à explicação e à revisão de decisões automatizadas. É preciso debater a abrangência desse direito, considerando a necessária instrumentalização da transparência no uso da inteligência artificial na saúde e os limites atualmente existentes, como a dimensão caixa-preta inerente aos algoritmos e o trade-off existente entre explicabilidade e precisão dos sistemas automatizados.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Bolzan de Morais, José Luis, e Lígia Kunzendorff Mafra. "INTELIGÊNCIA ARTIFICIAL EM DECISÕES JUDICIAIS: OPACIDADE VERSUS GARANTIAS PROCESSUAIS". Novos Estudos Jurí­dicos 28, n.º 3 (20 de dezembro de 2023): 516–35. http://dx.doi.org/10.14210/nej.v28n3.p516-535.

Texto completo da fonte
Resumo:
Contextualização: O texto propõe, como temática, uma análise crítica da utilização da inteligência artificial no processo de tomada de decisões judiciais. Objetivo: Objetiva-se realizar um exame de como a utilização das novas tecnologias impacta na efetivação de um processo de garantias. Método: Para o desenvolvimento do trabalho utilizou-se o método dialético, correlacionando a bibliografia sobre o tema, de modo a compreender como o uso da inteligência artificial pode ser benéfico ou prejudicial às garantias constitucionais nesse campo. Investigam-se também os problemas enfrentados ao utilizar a lógica algorítmica para subsidiar a decisão sobre fatos humanos, como a opacidade dos sistemas e a possibilidade, ou não, de se questionar efetivamente as razões das decisões maquinais. Por fim, discute-se a necessidade de uma regulamentação e normatização que guie o processo tecnológico para reafirmar as garantias processuais conquistadas. Resultados: Concluiu-se que, enquanto os programas de inteligência artificial não tiverem um alto grau de transparência e explicabilidade, não será possível a sua utilização para subsidiar ou tomar decisões judiciais.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Leitão, Rômulo Guilherme, e Wilson Sales Belchior. "Diretrizes Regulatórias para sistemas de inteligência artificial: análise documental das iniciativas dos Estados Unidos e União Europeia". Revista Eletrônica Direito e Sociedade - REDES 10, n.º 3 (30 de dezembro de 2022): 187–204. http://dx.doi.org/10.18316/redes.v10i3.9097.

Texto completo da fonte
Resumo:
Sistemas de Inteligência Artificial transformam a economia e a sociedade. Essas mudanças estimulam o debate jurídico sobre a atividade regulatória desses sistemas. Este artigo propõe o registro analítico das diretrizes regulatórias disponíveis em documentos oficiais públicos como parâmetros de conduta para os agentes regulados. Isto contribui à descrição de boas práticas regulatórias para os sistemas de Inteligência Artificial. A seleção dos documentos ocorreu por amostragem intencional do Decreto da Presidência dos Estados Unidos 13859 e Livro Branco sobre Inteligência Artificial da Comissão Europeia. Revisão de literatura serviu para delimitar os conceitos de Inteligência Artificial e regulação. Análise documental funcionou para apresentar o contexto dos documentos e registrar as diretrizes regulatórias. Primeiro são delimitados os conceitos de Inteligência Artificial (ênfase em algoritmos e dados) e regulação (ênfase em regras e comportamentos para os agentes regulados). Em seguida, há um recorte da agenda de pesquisa brasileira acerca da regulação de sistemas de Inteligência Artificial. Depois, os materiais e métodos são explicados. Por último, são exibidos os resultados da pesquisa. Boas práticas para a atividade regulatória dos sistemas de Inteligência Artificial incluem: conceito claro e abrangente de Inteligência Artificial; proteção de valores humanos básicos; critérios compreensíveis para distinção de sistemas de Inteligência Artificial a partir do risco; parâmetros de conduta ligados às exigências de transparência, explicabilidade, segurança, equidade e não-discriminação; avaliação do custo-benefício das opções regulatórias; proteção da concorrência; participação das partes interessadas. O debate jurídico quanto a regulação dos sistemas de Inteligência Artificial precisa considerar a velocidade das mudanças tecnológicas, os limites e as tensões das estruturas normativa e regulamentar existentes e a necessidade de adaptar ou organizar novos documentos jurídicos.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Elias, Mariele Abadia, Luciana Arruda Faversani, Josiane Aparecida Vieira Moreira, Anelise Viapiana Masiero e Natalia Veronez da Cunha. "Inteligencia artificial en salud y sus implicaciones bioéticas: una revisión sistemática". Revista Bioética 31 (2023). http://dx.doi.org/10.1590/1983-803420233542es.

Texto completo da fonte
Resumo:
Resumen El uso de la inteligencia artificial en salud va en aumento por facilitar el diagnóstico y la toma de decisiones, pero sus implicaciones plantean dudas relacionadas con la ética. Esta revisión sistemática desde las directrices Prisma identificó los usos de la inteligencia artificial en salud y sus implicaciones bioéticas. Las búsquedas se realizaron en Science Direct y Scopus utilizando los descriptores “artificial intelligence”, “bioethics” y “health”. De los trabajos en inglés publicados entre 2017 y 2021, se obtuvo 102 artículos. Aplicados los criterios, quedaron 11. Los estudios abordaron los principios bioéticos de beneficencia, no maleficencia, autonomía y justicia, añadiendo el elemento explicabilidad. La inteligencia artificial se correlacionó con la imprevisibilidad, previsibilidad, confianza, papel de los médicos, desarrollo de sistemas, privacidad, seguridad de los datos y aspectos financieros y sociales. Los desarrolladores, los profesionales sanitarios y los pacientes deben maximizar los beneficios y limitar los riesgos que involucra esta tecnología.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Sinisterra Marchand, Leydi Carolina, Gelberth Efren Amarillo Rojas e Nelson Giovanni Agudelo Cristancho. "La inteligencia artificial aplicada al diagnóstico y tratamiento de enfermedades y sus consideraciones éticas". REDIIS / Revista de Investigación e Innovación en Salud 7 (18 de dezembro de 2023). http://dx.doi.org/10.23850/rediis.v7i7.5961.

Texto completo da fonte
Resumo:
La inteligencia artificial (IA) está transformando la medicina, desde el diagnóstico hasta el tratamiento de enfermedades. Objetivo: Este artículo explora el impacto de la IA en la medicina, con un enfoque en las consideraciones éticas y de responsabilidad. Materiales y métodos: La exploración del estado del arte se realizó a través de un análisis minucioso de 33 estudios innovadores y recientes, relacionados con el tema. Resultados: En él, se discute cómo se utiliza la IA en el diagnóstico y tratamiento de enfermedades, proporcionando ejemplos de aplicaciones y casos de éxito, y analizando los beneficios y desafíos asociados. Se abordan las consideraciones éticas en el uso de la IA en medicina, incluyendo aspectos de privacidad y seguridad de los datos, transparencia y explicabilidad, equidad y no discriminación, y responsabilidad y rendición de cuentas. También se ofrecen posibles soluciones y recomendaciones para abordar estos desafíos. Conclusiones: Se ha concluido con reflexiones finales y perspectivas futuras sobre el uso de la IA en medicina. Se espera que este artículo fomente unadiscusión constructiva sobre cómo podemos utilizar la IA de manera ética y responsable en la medicina.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

, docente universitario e investigador., Mgt Luis Alb Amador Alvarez. "Influencia de la dirección administrativa sobre el compromiso y clima organizacional de los recursos humanos." Revista El Labrador 7, n.º 02 (29 de novembro de 2023). http://dx.doi.org/10.61285/r.e.l.-uisil.v7i02.109.

Texto completo da fonte
Resumo:
Se realiza el presente artículo científico con base en una investigación Doctoral realizada durante 4 años en una organización del sur de Costa Rica, la misma pretendía conocer la influencia de la dirección administrativa sobre el clima y compromiso organizacional de los recursos humanos, a partir del análisis se evalúan cuatro variables relacionadas al clima organizacional, todas como conjunto analizadas desde las percepciones que tienen los recursos humanos sobre la dirección administrativa, dos de ellas tienen un carácter intrínseco, es decir tienen un aporte particular a sus metas y objetivos internos, estas serían la autonomía y la autorrealización, las otras dos se relacionan con lo extrínseco, evalúan su medio laboral externo, estas serían prestaciones y supervisión, en el caso del compromiso organizacional se trabaja exclusivamente en dos de sus componentes, el compromiso afectivo el cual es visto como una actitud positiva hacia el trabajo, genera empatía mayor sentido de pertenencia entre la realidad del individuo y la organización y el compromiso de continuidad, mismo que se relacionada al deseo innato de los trabajadores en abandonar la organización o continuar en ella, el factor determinante son los beneficios que ellos mismos no están dispuestos a sacrificar. Todo el proceso contó con el soporte necesario, tales como modelos y teorías relacionadas al objeto de estudio, así mismo con un análisis metodológico guiado por correlaciones de Spearman y el método escalonado, el cual a partir de regresiones lineales y su algoritmo compara la variable dependiente con las independientes y establece un orden de fuerza o influencia que conllevan las variables sucesivamente a partir de su coeficiente de correlación (R) que nos suministra el porcentaje de explicabilidad y el coeficiente de determinación (R cuadrado) que explica la variabilidad de variable dependiente, dicho análisis se realiza bajo la perspectiva de la causalidad con el fin de dar respuesta detalladas a las preguntas de la investigación y generar aportación al conocimiento, mismo compartido en síntesis en el presente artículo. Se utiliza el cuestionario satisfacción laboral S20/23” de Meliá y Peiró (1989) y el cuestionario modelo de tres componentes de compromiso (TCM) de Meyer y Allen, 1991; 1997.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Almeida, Fernanda De Jesus, e Caroline Vasconcelos Ribeiro. "FREUD E A TEORIA DA ELABORAÇÃO DOS SONHOS: INVESTIGAÇÕES À LUZ DA FILOSOFIA DE MARTIN HEIDEGGER E DE PAUL RICOEUR". Revista Ideação, 5 de março de 2018. http://dx.doi.org/10.13102/ideac.v0i0.3012.

Texto completo da fonte
Resumo:
Com esse artigo almejamos estabelecer uma discussão acerca da cientificidade da psicanálise de Freud, tendo como horizonte de questionamentos a maneira como Freud teoriza sobre a interpretação dos sonhos. Pleiteamos investigar se o pensamento freudiano se afina com as ciências naturais, como advoga o filósofo Martin Heidegger, ou se, devido ao fato de preconizar a decifração de sentidosdos conteúdos oníricos, se afasta do naturalismo, como afirma Paul Ricoeur. Na obra “Seminários de Zollikon”, Heidegger assegura que a psicanálise freudiana se encaixa no rol das ciências da natureza e que o conceito de inconsciente está a favor da explicabilidade do psiquismo, do estabelecimento de leis e causas que regem o seu funcionamento. Nessa perspectiva, a concepção de sonho como um produto da ação do inconsciente afinar-se-ia com a pretensão de explicabilidade causal, típica das ciências da natureza. Já Paul Ricoeur, na obra “Da interpretação: um ensaio sobre Freud”, defende que não se pode entender que decifração dos sentidos dos sonhos consista em um procedimento puramente naturalista. Sendo assim, para Ricoeur, com a teoria acerca da formação dos sonhos, Freud amenizou a influência naturalista que marcou o início de suas pesquisas. Pretendemos, com esse artigo, analisar se, ao interpretar os sonhos, Freud estaria fazendo o exercício de compreensão dos fenômenos, típico das Ciências do Espírito, ou se, como atesta Heidegger, estaria em busca de um tipo de explicabilidade afinado com a Ciência da Natureza.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Yahata, Erika, Erik Paul Winnikow, Ricardo Suyama e Priscyla Waleska Simões. "Explicabilidade em Modelos Preditivos de Machine Learning no Câncer de Mama". Journal of Health Informatics 15, Especial (20 de julho de 2023). http://dx.doi.org/10.59681/2175-4411.v15.iespecial.2023.1090.

Texto completo da fonte
Resumo:
Objetivo: A Inteligência Artificial se mostra promissora como apoio à decisão no câncer de mama, porém, a interpretabilidade dos algoritmos como os de caixa preta pode contribuir na adoção na prática clínica. Esse estudo apresenta a explicabilidade em Modelos Preditivos de Aprendizado de Máquina no Câncer de Mama. Métodos: Avaliou-se duas abordagens distintas de Aprendizado de Máquina, Multilayer Perceptron (MLP) e Extreme Gradient Boosting (XGBoost), considerando amostra de 164 mulheres submetidas a Core Biópsia entre 2014 e 2015. Utilizou-se o Shapley Additive Explanation para a explicabilidade dos modelos. Resultados: Os modelos preditivos apresentaram, ambos, acurácia de 98,0% (IC95%:94,2%-100,0%) e o BI-RADS® 5 no ultrassom foi considerado como o atributo mais importante. Conclusão: Os modelos mostraram alta capacidade preditiva para o câncer de mama; no MLP o BI-RADS® 3 e 5 do ultrassom foram os atributos mais importantes, e no XGB, além do ultrassom, destacaram-se a idade e o nódulo palpável.
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Xavier, Flávia Lemos Sampaio, Ricardo Brigato Scheicher e Roberta Akemi Sinoara. "Classificação Semântica de Pedidos de Acesso à Informação". Revista da CGU 15, n.º 27 (7 de julho de 2023). http://dx.doi.org/10.36428/revistadacgu.v15i27.537.

Texto completo da fonte
Resumo:
Desde o início da implementação da Lei de Acesso à Informação no Brasil até 2020, existiu uma demanda crescente de pedidos de acesso à informação no âmbito da Controladoria-Geral da União (CGU) e de todo Poder Executivo federal. A busca por um modelo de automação de processos utilizando Inteligência Artificial visa levar à redução de custos para a administração pública e à melhoria das condições de trabalho, bem como auxilia na eficiência das respostas à sociedade. Neste trabalho, foi realizada a aplicação do método de classificação semanticamente enriquecida por expressões do domínio com uma análise comparativa dos resultados de classificação dos pedidos de acesso à informação usando como base algoritmos com diferentes níveis de explicabilidade e transparência para o processo. A melhor acurácia foi obtida pelo modelo do algoritmo Support Vector Machine, com valor de 91,1% e Medida-F1 Weighted de 91,7%, enriquecido pela representação de textos gBoED. Outros destaques também podem ser observados para algoritmos que oferecem maior explicabilidade. Os resultados apresentaram grande potencial quanto ao uso deste modelo para classificação dos pedidos de acesso à informação não apenas na CGU, mas em todo o setor público.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Vilhena, Junia De, Maria do Carmo Leite Oliveira, Joana Vilhena Novaes e Carlos Mendes Rosa. "A (Des)Confiança no Ambiente de Trabalho: Um Estudo de Caso à Luz da Teoria Winnicottiana". Interação em Psicologia 17, n.º 3 (31 de dezembro de 2013). http://dx.doi.org/10.5380/psi.v17i3.27698.

Texto completo da fonte
Resumo:
O presente artigo busca, através de uma abordagem transdisciplinar, compreender o processo de construção da (des)confiança, em suas múltiplas manifestações, numa organização empresarial, colocando em diálogo as contribuições da teoria winnicottiana e da Análise da Conversa de cunho Etnometodológico. Enfatiza a importância do ambiente na construção subjetiva e apropria-se do conceito de prestação de contas/explicabilidade (accounts), para analisar a fala de profissionais, em situação de entrevista, no âmbito de uma consultoria sobre a comunicação interna numa empresa em processo de mudança. Por fim descreve as percepções dos entrevistados sobre experiências comunicativas que colocam em relevo a importância do reforço da autoconfiança e os prejuízos da falta de confiança mútua no ambiente de trabalho.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Almeida, Fernanda de Jesus. "FREUD E A TEORIA DA INTERPRETAÇÃO DOS SONHOS: UMA DISCUSSÃO À LUZ DA FILOSOFIA DE MARTIN HEIDEGGER E DE PAUL RICOEUR". Anais dos Seminários de Iniciação Científica, n.º 20 (23 de março de 2018). http://dx.doi.org/10.13102/semic.v0i20.3193.

Texto completo da fonte
Resumo:
O presente resumo expandido almeja apresentar os resultados obtidos com a execução de um ano de pesquisa, na modalidade de iniciação científica, cujo apoio institucional foi do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A pesquisa, intitulada ―Freud e a teoria da interpretação dos sonhos: uma discussão à luz da filosofia de Martin Heidegger e de Paul Ricoeur‖, teve como finalidade investigar se a teoria freudiana da interpretação dos sonhos se afina com as formulações das ciências naturais, como advoga Martin Heidegger, ou se, devido ao fato de buscar decifrar os sentidos dos conteúdos oníricos, se afasta do naturalismo, como afirma Paul Ricoeur.Ricoeur (1977) defende, na obra Da interpretação: um ensaio sobre Freud, que, ao interpretar os sonhos, a psicanálise não só revelou que os mesmo têm sentidos, mas demonstrou que tais sentidos são deslocados e distorcidos na forma representativa de imagens. De acordo com a perspectiva ricoeuriana, a busca dos sentidos ocultos dos sonhos é um procedimento que não pode ser encaixado no rol de procedimentos puramente naturalistas. Para o filósofo francês, com a busca dos sentidos latentes dos sonhos Freud se desvinculou da supremacia da explicabilidade naturalista presente em seu escrito inicial intitulado Projeto para uma psicologia científica, de 1895.Na obra Seminários de Zollikon Martin Heidegger (2001) atesta que Freud postula o conceito de inconsciente a favor da explicabilidade de todos os atos psíquicos – inclusive a formação dos sonhos –, se servindo de pressupostos oriundos das ciências naturais. De acordo com Freud a etiologia da elaboração onírica é atribuída ao inconsciente, ou seja, ―a força propulsora da formação dos sonhos é fornecida pelo inconsciente‖ (FREUD, 1996a, p. 568). Para Heidegger, na medida em que este constructo cumpre função causal, não deve ser considerado como um elemento desvinculado do naturalismo. Pretendemos com este resumo expandido explanar e problematizar, dentro do escopo a ele atribuído, a posição dos autores frente à teoria freudiana da elaboração dos sonhos.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Elias, Mariele Abadia, Luciana Arruda Faversani, Josiane Aparecida Vieira Moreira, Anelise Viapiana Masiero e Natalia Veronez da Cunha. "Inteligência artificial em saúde e implicações bioéticas: uma revisão sistemática". Revista Bioética 31 (2023). http://dx.doi.org/10.1590/1983-803420233542en.

Texto completo da fonte
Resumo:
Resumo A presença de inteligência artificial na saúde vem crescendo, ajudando em diagnósticos e tomadas de decisão, mas suas implicações geram dúvidas relacionadas à ética. Esta revisão sistemática, baseada nas diretrizes Prisma, identificou os usos de inteligência artificial na saúde e suas implicações bioéticas. Foi realizada busca nas bases de dados Science Direct e Scopus usando os descritores “artificial intelligence”, “bioethics” e “health”. Trabalhos em inglês, publicados entre 2017 e 2021 foram considerados, resultando em 102 artigos. Após aplicação dos critérios estabelecidos, 11 foram selecionados. Os estudos discutiram os princípios bioéticos da beneficência, não maleficência, autonomia e justiça, adicionando o elemento explicabilidade. Inteligência artificial mostrou correlação com imprevisibilidade, previsibilidade, confiança, papel do médico, desenvolvimento de sistemas, privacidade, segurança de dados, e aspectos sociais e financeiros. Desenvolvedores, profissionais da saúde e pacientes devem maximizar os benefícios e limitar os riscos das ferramentas que usam essa tecnologia.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Doneda, Danilo, e Miriam Wimmer. "“FALHAS DE IA” E A INTERVENÇÃO HUMANA EM DECISÕES AUTOMATIZADAS: PARÂMETROS PARA A LEGITIMAÇÃO PELA HUMANIZAÇÃO". Direito Público 18, n.º 100 (27 de janeiro de 2022). http://dx.doi.org/10.11117/rdp.v18i100.6119.

Texto completo da fonte
Resumo:
Em um contexto em que diferentes países vêm reconhecendo um direito à intervenção humana face a decisões automatizadas, o artigo tem por objetivo investigar os elementos que podem atrair a necessidade de introdução de parâmetros humanos em processos de decisão impulsionados por sistemas de Inteligência Artificial. Assim, com base no método hipotético-dedutivo e a partir de pesquisa bibliográfica e documental, o artigo explora diferentes categorias de problemas que podem advir de decisões tomadas por sistemas de IA, concluindo que, em determinados casos, a necessidade de intervenção humana pode ser identificada não apenas com base em critérios de eficiência, mas também pode se constituir em um componente ético em si mesmo. Por outro lado, argumenta-se que determinados parâmetros de sistemas de IA, tais como o seu nível de transparência e auditabilidade, a explicabilidade das decisões, o seu baixo impacto potencial a direitos e garantias fundamentais e o grau de participação do próprio usuário do sistema na sua configuração e utilização, poderiam mitigar os riscos associados ao "déficit de humanidade" e assim proporcionar que a intervenção humana seja modulada em diferentes níveis de intensidade, mantendo-se o atendimento aos requisitos éticos de decisões legítimas, confiáveis, justas e cognoscíveis, por seres humanos, em seus principais elementos.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Alves, Marco Antônio Sousa, e Otávio Morato de Andrade. "Da “caixa-preta” à “caixa de vidro”: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos". Direito Público 18, n.º 100 (27 de janeiro de 2022). http://dx.doi.org/10.11117/rdp.v18i100.5973.

Texto completo da fonte
Resumo:
A inteligência artificial (IA) tem sido utilizada em larga escala em variados domínios, com cada vez mais implicações sociais, éticas e de privacidade. À medida que suas potencialidades e aplicações são expandidas, surgem dúvidas sobre a confiabilidade dos sistemas equipados com IA, particularmente aqueles que empregam técnicas de machine learning que podem torná-los verdadeiras ‘caixas-pretas’. A XAI (Explainable Artificial Intelligence), ou inteligência artificial explicável, objetiva oferecer informações que ajudam a explicar o processo preditivo de determinado modelo algorítmico. Este artigo se volta especificamente para o estudo da XAI, investigando seu potencial para explicar decisões de modelos algorítmicos e combater o enviesamento dos sistemas de IA. Na primeira etapa do trabalho, é discutida a questão da falibilidade e enviesamento da IA, e como a opacidade agrava esses problemas. Na segunda parte, apresenta-se a inteligência artificial explicável e suas potenciais contribuições para tornar os sistemas mais transparentes, auxiliando no combate aos erros e vieses algorítmicos. Conclui-se que a XAI pode colaborar para a identificação de vieses em modelos algorítmicos, razão pela qual sugere-se que a capacidade de “se explicar” – ou seja, a explicabilidade – seja um requisito para a adoção de sistemas de IA em searas mais sensíveis, como por exemplo, o auxílio à tomada de decisão judicial.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Lazzaretti Vieira, David, e Adalberto Narciso Hommerding. "A inteligência artificial como ferramenta de mediação em conflitos internacionais: uma nova abordagem para a guerra Rússia-Ucrânia". REVISTA DA AGU, 27 de março de 2024. http://dx.doi.org/10.25109/2525-328x.v.23.n.01.2024.3404.

Texto completo da fonte
Resumo:
O artigo analisa a guerra e a paz na ótica dos conflitos internacionais, focando na ineficácia das estratégias atuais para encerrar a guerra entre Rússia e Ucrânia. Após contextualizar a problemática da guerra e da paz, o estudo se aprofunda na questão da guerra entre os dois países, destacando as ameaças nucleares, as consequências globais e a dificuldade de estabelecer uma paz duradoura. A hipótese apresentada é que as estratégias de resolução de conflitos, baseadas principalmente na diplomacia e nas sanções econômicas, são ineficazes devido à ausência de um "terceiro" externo e imparcial que possa mediar as negociações. O artigo propõe a utilização da inteligência artificial (IA) como uma possível solução para a resolução de conflitos internacionais. A IA poderia ser usada para analisar grandes volumes de dados e identificar padrões e tendências que podem ajudar a prever conflitos antes que eles se tornem violentos ou incontroláveis. Além disso, a IA pode ser programada para ser um "terceiro" imparcial e racional nas negociações, estabelecendo normas de interação, sugerindo soluções viáveis e ajudando a facilitar acordos. No entanto, o uso de IA na resolução de conflitos deve obedecer a um conjunto de parâmetros éticos mínimos, como o respeito aos direitos humanos, a transparência, a explicabilidade, a responsabilidade, a equidade e a prevenção de danos dos sistemas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

G. Webber, Carine, e Diego Flores. "Roteiro para a integração da inteligência artificial em experiências de ensino". #Tear: Revista de Educação, Ciência e Tecnologia 12, n.º 2 (10 de dezembro de 2023). http://dx.doi.org/10.35819/tear.v12.n2.a6861.

Texto completo da fonte
Resumo:
Resumo: O avanço acelerado da Inteligência Artificial (IA) está transformando profundamente diversos setores da sociedade, incluindo a Educação. Internacionalmente, o ensino da IA emerge como uma necessidade, reforçada pelas metas de desenvolvimento mundial sustentável da Unesco (2020). De maneira geral, a IA está se tornando um tema transversal a todas as áreas de conhecimento, estando presente diariamente na vida de todos nós. Embora a utilização da IA no contexto educacional suscite considerável interesse, a falta de orientações específicas pode dificultar sua adoção por parte de docentes menos familiarizados com a área. Em termos tecnológicos, diversas iniciativas têm proporcionado o surgimento de plataformas destinadas à aprendizagem da IA. Porém, o ensino não tem se fortalecido por meio delas, observadas as carências da formação docente em termos computacionais. A fim de contribuir nesta perspectiva, a presente proposta delineia um roteiro destinado a professores que buscam introduzir a IA como recurso pedagógico em suas práticas de ensino. Este guia abrange etapas desde a seleção do problema até a avaliação comparativa entre soluções baseadas em IA e abordagens tradicionais, considerando implicações éticas e de explicabilidade dos métodos. Busca-se, por meio desta proposta, capacitar os professores a abraçar a IA como uma ferramenta enriquecedora no cenário educacional contemporâneo. Até o momento, estudos e avaliações do roteiro proposto foram desenvolvidos no âmbito da docência na Educação Básica. Os resultados preliminares apontam a facilidade de uso desses recursos para uso em sala de aula e na formação docente. Palavras-chave: Inteligência Artificial. Formação Docente. Capacitação Universitária. Nível de Maturidade em IA.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia