La Ética Y La Responsabilidad en La Implementación de La Inteligencia Artificial: Revisión Sistemática
La Ética Y La Responsabilidad en La Implementación de La Inteligencia Artificial: Revisión Sistemática
https://creativecommons.org/licenses/by/4.0/
LA ÉTICA Y LA RESPONSABILIDAD EN LA
IMPLEMENTACIÓN DE LA INTELIGENCIA
ARTIFICIAL: REVISIÓN SISTEMÁTICA
Ethics and responsibility in the application
of artificial intelligence: Systematic review
VÍCTOR A. GUZMAN-BRAND 1, LAURA E. GELVEZ-GARCÍA1
R ESUMEN
El objetivo de esta investigación es comprender el valor de la ética en la implementación de la inteligencia artificial (IA)
en diversas áreas de la sociedad. Se llevó a cabo una revisión sistemática de artículos científicos publicados en bases de
datos especializadas, con el fin de identificar principios éticos que aseguren un uso responsable de esta tecnología y
contribuyan al desarrollo que beneficie a la sociedad. Resultados
Resultados: la creciente influencia de la IA en diversas áreas de
la vida humana plantea serias dudas sobre la naturaleza y aplicación de nuestros estándares éticos. Durante su desarro-
llo e implementación, es fundamental considerar una serie de principios para garantizar su uso responsable y propósi-
tos beneficiosos para la comunidad. Discusión: es imperativo que los países establezcan códigos éticos específicos
que aborden diversos aspectos críticos. Estas normas deberían centrarse en prevenir el fraude en el desarrollo y
usabilidad de las herramientas tecnológicas, así como en evitar el surgimiento de monopolios en los sectores comercial
y laboral. Conclusiones: los avances acelerados en este ámbito traen consigo no solo cambios tecnológicos signi-
ficativos, sino también importantes cuestiones éticas y morales. En este contexto, la reflexión ética se vuelve fundamen-
tal para asegurar el desarrollo responsable de estas tecnologías.
Palabras clave: ética; responsabilidad; desarrollo; inteligencia artificial.
ABSTRACT
The objective of this research is to understand the value of ethics in the implementation of artificial intelligence (AI) in
various areas of society. A systematic review of scientific articles published in specialized databases was conducted to
identify ethical principles that ensure the responsible use of this technology and contribute to development that benefits
society. Results: the growing influence of AI in various aspects of human life raises serious doubts about the nature and
application of our ethical standards. During its development and implementation, it is essential to consider a series of
principles to guarantee its responsible use and beneficial purposes for the community. Discussion: it is imperative that
countries establish specific ethical codes that address various critical aspects. These standards should focus on preventing
fraud in the development and usability of technological tools, as well as avoiding the emergence of monopolies in
commercial and labor sectors. Conclusions: the rapid advances in this field bring about not only significant technological
changes but also important ethical and moral issues. In this context, ethical reflection becomes fundamental to ensure the
responsible development of these technologies.
Keywords
Keywords: ethics; responsibility; development; artificial intelligence.
1 Profesional en Psicología. Especialista en Desarrollo Integral de la Infancia y Adolescencia. Especialista en analítica de datos. Estudiante de
Ingeniería en sistemas. Corporación Unificada Nacional de Educación Superior (CUN). ORCID: https://orcid.org/0000-0002-6051-3153
Correo electrónico: [email protected]
2 Licenciada en Lengua Castellana. Magíster en Lingüística Española. Doctora en Ciencias de la educación. ORCID: https://orcid.org/0000-
0003-0164-2972 Correo electrónico: [email protected]
Fig 1. Proceso de búsqueda y selección. Nota: Diagrama de flujo de acuerdo a las directrices PRISMA[11].
Dado que la ética se aplica a sujetos dotados de adecuado es automáticos. Donde la automatici-
autonomía, y según la legislación vigente, este atri- dad se refiere a la independencia operativa que
buto se limita únicamente al ser humano en virtud adquiere la IA al actuar dentro de los parámetros
de su inteligencia, autodeterminación, razonamien- autorizados en su programación, sin requerir
to y libertad en el sentido más amplio, por lo que permisos para su funcionamiento cotidiano, sal-
se puede definir la ética como una inteligencia ar- vo en algunas excepciones[17].
tificial. Hay dudas sobre su extensión, ya que no
es un sujeto autónomo ni racional[14],[15]. Con relación a la ética y la inteligencia artificial
(IA) pueden abordarse en diferentes niveles[18]:
Sin embargo, se argumenta que la inteligen-
cia artificial puede operar de manera indepen- · Ética por diseño: representa la integración
diente, aunque no puede rendir cuentas de sus de capacidades de razonamiento ético como
propios actos ni tomar decisiones con todos los parte del comportamiento de un sistema au-
elementos inherentes a la conciencia humana[16]. tónomo artificial.
En este sentido, es incorrecto considerarlas au-
tónomas, ya que no deben actuar sin supervi- · Ética en el diseño: implica métodos regula-
sión humana. Por lo tanto, el término más torios y de ingeniería que respaldan el aná-
lisis y la evaluación de las implicaciones éti- IA, asegurando su uso responsable y sus efectos
cas de los sistemas de IA. positivos en la sociedad. Estas dimensiones abar-
can elementos esenciales como el respeto a la dig-
· Ética para el diseño: involucra conductas, nidad, la equidad y la transparencia, buscando
estándares y procesos que aseguren la inte- mitigar los riesgos y maximizar los beneficios de
gridad de desarrolladores y usuarios. esta tecnología emergente[21]. A continuación, se
presentan los lineamientos clave que deben orientar
En otras palabras, los problemas éticos pueden el desarrollo y la aplicación de estas tecnologías,
surgir tanto de la propia tecnología de la IA como asegurando que su progreso esté en consonancia
de los efectos que esta tiene en los seres vivos[19]. con los derechos fundamentales de una comuni-
La inteligencia artificial impacta a diversos grupos, dad cada vez más interconectada a nivel global.
incluyendo a los creadores, los responsables de
Fig. 2.
políticas y el público en general. Para garantizar
un uso ético de esta tecnología, es fundamental que
Para determinar que la IA se implemente des-
los creadores diseñen e implementen sistemas que
sigan principios éticos rigurosos. Asimismo, los res- de el aspecto de la ética y la conciencia en la escri-
ponsables de políticas deben comprender las tura científica, es crucial implementar varias
implicaciones éticas de esta innovación, a fin de medidas. Primero, se debe dar prioridad a la trans-
formular regulaciones que mitiguen riesgos y pro- parencia, estableciendo pautas claras sobre cómo
muevan el bien común. Por último, es esencial que se emplean estas herramientas en la investigación
el público esté informado y educado sobre los be- y en el proceso de publicación[24]. Es crucial for-
neficios y riesgos asociados, lo que les permitirá talecer los procesos de revisión por pares para ase-
participar activamente en el debate sobre su uso gurar una evaluación exhaustiva y rigurosa de los
responsable[20]. trabajos. Además, es esencial invertir en tecnolo-
gías avanzadas para supervisar el uso de la IA y
Es crucial tener en cuenta una serie de prácticas educar a los autores sobre prácticas éticas y res-
éticas en el desarrollo y la implementación de la ponsables en este campo[25].
Ética e inteligencia artificial en la educación res de edad, lo que exige protocolos de seguridad
robustos. En cuanto a la igualdad, los algoritmos
La influencia de la IA en la educación desde de aprendizaje automático pueden perpetuar y
una perspectiva ética resalta la necesidad de regu- amplificar sesgos existentes, afectando la equidad
lar su uso para el bien común. Se abordan los roles educativa y aumentando la brecha digital. Final-
y desafíos éticos de la IA en el ámbito educativo, mente, la interacción con sistemas de IA puede li-
proponiendo la formación de los docentes en de- mitar la autonomía de los estudiantes y plantear
bates ético-filosóficos[26]. Así, se subraya la im- desafíos relacionados con la responsabilidad de las
portancia de considerar los principios éticos y acciones de la IA, dado que estos sistemas no son
deontológicos al implementar la IA en la educa- agentes morales[34].
ción, protegiendo a los seres humanos de posibles
riesgos y asegurando un uso ético que esté alinea- Se ha señalado que cuando un algoritmo com-
do con los Objetivos de Desarrollo Sostenible[27]. promete la autonomía de los docentes, puede dar
Además, es esencial que los estudiantes adquieran lugar a prácticas deterministas y a la discrimina-
competencias digitales y enfrenten los retos éticos ción en el tratamiento de datos. Es crucial recor-
y las vulnerabilidades inherentes al uso de la IA, dar que los sistemas de inteligencia artificial operan
sin perder de vista la necesidad de políticas públi- de acuerdo con las instrucciones programadas, lo
cas que regulen de manera ética su aplicación en el que implica un riesgo significativo de causar da-
ámbito educativo[28]. ños si se emplean de manera inadecuada[35]. Este
desafío plantea la necesidad de revisar cómo se
De esta manera, para una implementación ade- implementan estas tecnologías en el ámbito edu-
cuada, es crucial abordar varios aspectos éticos y cativo, ya que su mal uso podría afectar no solo la
sociales[29]. Siendo evidente la limitada formación calidad de la enseñanza, sino también la equidad
de los docentes puede llevar al mal uso o abuso de en el aprendizaje.
esta tecnología. Es esencial examinar los diseños
de las herramientas de IA, las motivaciones detrás Sesgos en la implementación
de su introducción en el mercado educativo, y quié-
nes impulsan su uso. La implementación de la IA Las preocupaciones sobre el sesgo inherente a
en educación puede afectar la autonomía, la res- la inteligencia artificial y la ciencia de datos son
ponsabilidad de las personas y obstaculizar dere- claras. Esto destaca que los algoritmos pueden
chos universales como la privacidad, la igualdad y internalizar los sesgos presentes en los conjuntos
la no discriminación[30],[31],[32]. de datos utilizados para su entrenamiento, lo que
puede conducir al esfuerzo y la perpetuación de
Al respecto, las instituciones académicas enfren- sesgos arraigados en la sociedad[23]. Esta situa-
tan el desafío de integrar estas herramientas en ción representa un desafío ético considerable, ya
sus entornos educativos de forma ética y respon- que los algoritmos sesgados pueden perpetuar y
sable. Las universidades más destacadas están agravar la discriminación en diversas áreas, inclu-
implementando estrategias para aprovechar su yendo la contratación de personal, el sistema de
potencial, al mismo tiempo que protegen la inte- justicia y la distribución de recursos[36],[37].
gridad académica y los valores éticos. Es esencial
que tanto educadores como estudiantes se man- Asimismo, se destaca la necesidad imperante
tengan a la vanguardia de estas tecnologías, adop- de la transparencia y la capacitación de su funcio-
tando un enfoque crítico y adaptativo para namiento en los sistemas de inteligencia artificial,
asegurar que la inteligencia artificial enriquezca el especialmente en contextos críticos como la aten-
proceso educativo en lugar de socavarlo[33]. ción médica y la seguridad pública (modelos de
frontera)[38]. Entender y auditar los procesos de
En términos de privacidad, el uso de grandes toma de decisiones autónomas de los algoritmos
volúmenes de datos personales de estudiantes es clave para asegurar la rendición de cuentas y
plantea problemas relacionados con el consenti- generar confianza en estas tecnologías. Aunque las
miento, la transparencia y la posible manipulación técnicas de aprendizaje profundo plantean desa-
comercial. Además, el riesgo de ciberataques es fíos en cuanto a su claridad, es esencial promover
elevado, especialmente cuando se trata de meno- la interpretabilidad de los sistemas de inteligencia
artificial. Esto ayudará a evitar la opacidad y la caciones diseñadas para realizar una única tarea,
aparición de «cajas negras» que pueden encubrir radica en la responsabilidad de quienes los diseñan
sesgos y decisiones injustas[39]. y operan. Debido a que estas aplicaciones solo pue-
den funcionar dentro de un conjunto de acciones
Otro aspecto para tenerse en cuenta es la viola- predefinido, la reflexión ética sobre esta tecnología
ción de la privacidad puede ocurrir en varias eta- debe centrarse en su programación y diseño[46].
pas, tanto durante la recopilación de datos como en
el análisis masivo de los mismos[40]. Además, la Por otro lado, las aplicaciones con inteligencia
excesiva dependencia de la inteligencia artificial (IA) general artificial (AGI) son más complejas, ya que
puede debilitar la experiencia humana y la atención tienen la capacidad de tomar decisiones y elegir
personalizada a los pacientes en el ambiente clíni- entre diversos cursos de acción. Aunque la respon-
co[41]. El costo del desarrollo e implementación de sabilidad ética sigue recayendo en las personas que
ciertas herramientas puede ser considerable. Los diseñan y operan estos sistemas, el mayor grado
flujos de trabajo necesitan adaptarse, y la gestión de automatización exige una reflexión ética más
del cambio es esencial para evitar cargas tecnológi- detallada. Esta debe considerar principios de di-
cas innecesarias[42]. Los sistemas de IA deben ser seño específicos como la trazabilidad de los
razonablemente explicables, proporcionando a los algoritmos[47],[48].
usuarios información sobre sus fortalezas y limita-
ciones, e indicando cuándo se han utilizado en la La inteligencia artificial (IA) impulsa una
toma de decisiones[43]. automatización mucho mayor de diversas profe-
siones, incluyendo aquellas que requieren el uso
Responsabilidad
de la visión para identificar y ubicar objetos especí-
ficos. Tradicionalmente, los empleos más rutinarios
La implementación de la inteligencia artificial
han sido los más amenazados por la automatiza-
(IA) debe apoyarse en una revisión multidisciplinar
ción. Sin embargo, la IA ha ampliado el alcance de
que promueva el respeto por los derechos y la dig-
esta automatización a campos profesionales pre-
nidad humana, integrando marcos normativos
viamente no afectados, lo que destaca la necesi-
apropiados y la participación de múltiples partes
dad de una profunda reflexión sobre el impacto y
interesadas[44]. Es fundamental que los formula-
las implicaciones de esta expansión[49].
dores de políticas y los profesionales del desarrollo
reconozcan la necesidad de enfoques participativos
que generen apropiación y sostenibilidad de los De esta manera en el contexto laboral, la incor-
resultados. La promoción de la innovación tecno- poración de robótica y sistemas de IA presenta
lógica y regulatoria debe ir acompañado de la pro- desafíos significativos en cuanto a la protección de
tección de los derechos humanos y el bienestar los derechos de los trabajadores[50]. La utilización
social, lo que requiere un proceso serio y estructu- de inteligencia artificial en procesos de selección y
rado contextualmente[27]. ofertas de empleo plantea preocupaciones éticas,
especialmente en relación con el derecho a la no
Es crucial incluir a grupos que normalmente discriminación. Por lo tanto, es fundamental esta-
están excluidos e impulsar estrategias de IA cen- blecer salvaguardias éticas y legales que aseguren
tradas en el usuario a través del pensamiento de que la IA no perpetúe sesgos ni prácticas discri-
diseño. La participación debe ser transparente e minatorias en el ámbito laboral[51].
incluir información clara y ampliamente comuni-
cada para que todas las partes interesadas puedan En términos de responsabilidad, es fundamen-
contribuir de forma efectiva. Por consiguiente, se tal que los desarrolladores de tecnología propor-
necesitaran calendarios adecuados, enfoques inte- cionen información clara sobre el funcionamiento
grales y esfuerzos para incluir a todas las regiones de los algoritmos, destacando la necesidad de
y grupos marginados, facilitando un compromiso transparencia[52]. Esto permite a educadores y
consciente del capital humano y el desarrollo de estudiantes comprender y cuestionar los procesos
una infraestructura eficiente y ética[45]. de toma de decisiones automatizados. Además, la
formación ética en tecnología se considera una res-
La importancia ética de los dispositivos y siste- ponsabilidad institucional, subrayando la impor-
mas que utilizan IA estrecha, es decir, aquellas apli- tancia de incorporar programas que fomenten una
sólida comprensión de los impactos éticos de la IA El desafío radica en cómo gestionar de manera
entre educadores y estudiantes[53]. efectiva el uso de la inteligencia artificial como
herramienta para alcanzar no solo los objetivos de
La responsabilidad por los resultados genera- la educación superior, sino también los más am-
dos por un sistema de inteligencia artificial y las plios objetivos de desarrollo social en la sociedad
posibles afectaciones que pueda ocasionar debe ser contemporánea[58]. Es fundamental que la IA se
asumida por todos los actores involucrados en la utilice para promover una educación inclusiva y
cadena algorítmica. Cada participante desempeña solidaria, que garantice el acceso equitativo a opor-
un papel crucial, lo que implica que no se puede tunidades de aprendizaje para todos. Esto implica
limitar la responsabilidad a un solo individuo. En la creación de políticas que integren la tecnología
este sentido, se aplicará el principio de solidari- de manera ética y responsable, considerando su
dad entre diseñadores, desarrolladores y quienes impacto en diversos grupos sociales[59].
implementan esta tecnología. Todos ellos compar-
tirán la responsabilidad por los daños causados a Es crucial que los países implementen códigos
un individuo debido al uso de esta tecnología, a éticos específicos para la inteligencia artificial que
menos que se demuestre de manera suficiente que aborden aspectos fundamentales. Dichos códigos
la responsabilidad recae exclusivamente en uno de deben centrarse en prevenir prácticas indebidas
estos actores[54]. en el desarrollo y uso de estas tecnologías, ade-
más de evitar la formación de monopolios en los
sectores comercial y laboral[60]. Además, es esen-
IV. DISCUSIONES cial prohibir el uso de la IA en contextos armamen-
tistas, garantizando así que su desarrollo no
Al abordar el uso de programas que contienen contribuya a la violencia ni a la guerra. También
algoritmos y despliegan efectos de inteligencia ar- deben implementarse regulaciones que restrinjan
tificial, es crucial que los derechos de autor y la el uso indebido de datos personales, protegien-
propiedad intelectual no prevalezcan sobre dere- do así la privacidad de los individuos. Los códi-
chos fundamentales como la dignidad humana, el gos éticos deben abordar cláusulas abusivas en
acceso a la justicia y a la administración de justicia los contratos electrónicos, asegurando que los
para las personas afectadas. Priorizar un derecho consumidores estén protegidos frente a condicio-
sobre otro es una medida necesaria y justa en una nes desfavorables[61].
sociedad que se define como un Estado social de
derecho. Sin esta distinción en la importancia de La integración de robots y sistemas autónomos
los derechos, estaríamos otorgando más valor a la en diversas esferas sociales presentará riesgos in-
propiedad que a uno de los pilares fundamentales herentes cada vez mayores debido a las activida-
de nuestra sociedad: la centralidad y la importan- des que desarrollan. Su característica principal, la
cia del ser humano[55]. imprevisibilidad, se debe a su elevado nivel de
autonomía, ya que operan basándose en probabi-
Por todo lo anterior, el trabajo conjunto entre lidades en lugar de certezas. Además, su conside-
juristas y especialistas en ética genera numerosas rable capacidad de intromisión en múltiples áreas
interrogantes sobre el modelo más adecuado para de nuestra sociedad ha llevado a muchos estudio-
aplicar según el desarrollo específico de la inteli- sos a referirse a este fenómeno como «la dictadura
gencia artificial. En algunos casos, podría ser más del algoritmo»[62].
efectivo y viable que las aplicaciones y sistemas de
IA se desarrollen siguiendo principios éticos y có-
digos pertinentes[56]. Sin embargo, en otras situa- V. CONCLUSIONES
ciones, la autorregulación no es suficiente; es
necesaria la implementación de una regulación ju- Los avances acelerados en inteligencia artificial
rídica basada en el derecho positivo, que se esti- (IA) traen consigo no solo transformaciones tec-
pule en normas vinculantes y en las constituciones. nológicas significativas, sino también importantes
El objetivo final debería ser la configuración de cuestiones éticas y morales. En este contexto, la
derechos en el ámbito digital y en relación con la reflexión ética es esencial para garantizar el desa-
inteligencia artificial[57]. rrollo responsable de estas tecnologías. Si bien la
las plataformas de verificación como precursores [14] T. Zabala-Leal, «La ética en la Inteligencia Artifi-
de la rendición de cuentas en España», Estud. So- cial», Gest. Segur. Salud En El Trab., vol. 5, n.o 2, Art.
bre El Mensaje Periodís., vol. 28, n.o 4, pp. 959-970, n.o 2, ago. 2023, doi: 10.15765/gsst.v5i2.3714.
2022, doi: 10.5209/esmp.82385.
[15] A. Porcelli, «La inteligencia artificial y la robótica:
[4] Organización de las Naciones Unidas para la sus dilemas sociales, éticos y jurídicos», Derecho
Educación, la Ciencia y la Cultura (UNESCO), «Re- Glob. Estud. Sobre Derecho Justicia, vol. 6, n.o 16, pp.
comendación sobre la ética de la inteligencia artifi- 49-105, 2020, doi: 10.32870/dgedj.v6i16.286.
cial», Organización de las Naciones Unidas para
la Educación, la Ciencia y la Cultura, UNESCO [16] J. Cabanelas-Omil, «Inteligencia artificial ¿Dr.
Biblioteca Digital, 2022. Accedido: 28 de noviem- Jekyll o Mr. Hyde?», Merc. Negocios, vol. 56, n.o 40,
bre de 2023.[En línea]. Disponible en: https:// pp. 5-22, 2019, doi: https://www.redalyc.org/
unesdoc.unesco.org/ark:/48223/pf00003811 journal/5718/571860888002/html/.
37_spa [17] M. Álvarez, L. Quirós, y M. Cortés, «Inteligencia
[5] J. Conill, «Vista de Ética discursiva e inteligencia artificial y aprendizaje automático en medicina»,
artificial. ¿Favorece la inteligencia artificial la ra- Rev. Medica Sinerg., vol. 5, n.o 8, Art. n.o 8, ago. 2020,
zón pública?», Rev. Int. Filos., vol. 90, n.o 2, pp. 115- doi: 10.31434/rms.v5i8.557.
130, 2023, doi: https://revistas.um.es/daimon/ [18] M. Serafim, A. Bertoncini, M. Ames, y D. Pansera,
article/view/562371/346871. «Inteligencia Artificial (de)generativa: Sobre la im-
[6] H. Zambrano, «Hacia una ética sustentable con la posibilidad de que un sistema de IA tenga una ex-
Inteligencia Artificial en la investigación», Cuad. periencia moral», Scr. Theol., vol. 56, n.o 2, Art. n.o
Latinoam. Adm., vol. 20, n.o 38, Art. n.o 38, may 2024, 2, may 2024, doi: 10.15581/006.56.2.467-502.
doi: https://revistas.unbosque.edu.co/index. [19] J. Villalba-Gómez, «Problemas bioéticos emergen-
php/cuaderlam/article/view/4636. tes de la inteligencia artificial», Divers. Perspect. En
[7] IBM, «Ética de la IA». Accedido: 17 de julio de Psicol., vol. 12, n.o 1, pp. 137-147, ene. 2016, doi:
2024.[En línea]. Disponible en: https://www.ibm. 10.15332/s1794-9998.2016.0001.10.
com/mx-es/topics/ai-ethics [20] F. Zapata, S. Montoya, y D. Montoya, «Dilemas éti-
[8] S. Hyun, L. Farfán, y J. Jiménez, «Cómo se redacta cos planteados por el auge de la inteligencia artifi-
un artículo de revisión sistemática», Cir. Columna, cial: una mirada desde el transhumanismo», Región
vol. 2, n.o 2, pp. 131-137, may 2024, doi: https:// Científica, vol. 3, n.o 1, Art. n.o 1, ene. 2024, doi:
www.medigraphic.com/cgi-bin/new/resumen. 10.58763/rc2024225.
cgi?IDARTICULO=115863. [21] M. Sequeira y J. Sánchez, «La ética y la moral en la
[9] S. Berra, «Fundamentos y Método de las Revisio- inteligencia artificial empresarial; una aproxima-
nes Sistemáticas», Rev. Areté, vol. 20, n.o 2, Art. n.o ción epistemológica y jurídica: Ethics and morality
2, dic. 2020, doi: 10.33881/1657-2513.art.20208. in business artificial intelligence, an epistemolo-
gical and legal approach», LATAM Rev. Latinoam.
[10] M. J. Page et al., «Declaración PRISMA 2020: una Cienc. Soc. Humanidades, vol. 4, n.o 4, Art. n.o 4, oct.
guía actualizada para la publicación de revisio- 2023, doi: 10.56712/latam.v4i4.1289.
nes sistemáticas», Rev. Esp. Cardiol., vol. 74, n.o 9,
pp. 790-799, sep. 2021, doi: 10.1016/j.recesp. [22] F. Martín-Jiménez, «Inteligencia artificial y ética:
2021.06.016. hacia una aplicación de los principios éticos en el
ámbito de la UE», Cuad. Eur. Deusto, vol. 30, n.o 68,
[11] M. J. Page et al., «Declaración PRISMA 2020: una Art. n.o 68, abr. 2023, doi: 10.18543/ced.2699.
guía actualizada para la publicación de revisio-
nes sistemáticas», Rev. Esp. Cardiol., vol. 74, n.o 9, [23] A. González, M. Moreno, A. Román, Y. Fernández,
pp. 790-799, sep. 2021, doi: 10.1016/j.recesp. y N. Pérez, «Ethics in Artificial Intelligence: an
2021.06.016. Approach to Cybersecurity», Intel. Artif., vol. 27,
n. o 73, Art. n. o 73, ene. 2024, doi: 10.4114/
[12] I. Balestra, «Una reflexión en torno a los avances intartif.vol27iss73pp38-54.
de la IA y una mirada sobre sus implicancias éti-
cas.», Vida Ética, vol. 24, n.o 2, Art. n.o 2, 2022, doi: [24] J. Villasmil, «Reflexiones esenciales sobre las
https://erevistas.uca.edu.ar/index.php/VyE/ implicaciones éticas de uso de la inteligencia arti-
article/view/4613. ficial en la elaboración de artículos científicos de
alto impacto», Multiverso J., vol. 3, n.o 5, Art. n.o 5,
[13] L. Inglada, L. Corral, y P. Miramontes, «Ética e in- sep. 2023, doi: 10.46502/issn.2792-3681/2023.5.0.
teligencia artificial», Rev. Clínica Esp., vol. 224, n.o
3, pp. 178-186, mar. 2024, doi: 10.1016/j.rce.2024. [25] V. Gimeno-Ballester y C. Trigo-Vicente, «El rol de
01.007. la inteligencia artificial en la publicación científi-
ca: perspectivas desde la farmacia hospitalaria», The challenges of artificial intelligence in the
Farm. Hosp., vol. 2, n.o 2, pp. 1-6, jun. 2024, doi: teaching-learning process», LATAM Rev. Latinoam.
10.1016/j.farma.2024.06.002. Cienc. Soc. Humanidades, vol. 5, n.o 2, Art. n.o 2, abr.
2024, doi: 10.56712/latam.v5i2.1989.
[26] C. Gallent, A. Zapata, y J. Ortego, «El impacto de la
inteligencia artificial generativa en educación su- [37] J. Verona, «La ética de la inteligencia artificial»,
perior: una mirada desde la ética y la integridad Bioquímica Patol. Clínica, vol. 86, n.o 3, pp. 20-21,
académica», RELIEVE - Rev. Electrónica Investig. 2022, doi: https://www.redalyc.org/journal/651/
Eval. Educ., vol. 29, n.o 2, Art. n.o 2, dic. 2023, doi: 65172256001/.
10.30827/relieve.v29i2.29134. [38] G. Bas, C. Salinas, R. Tinoco, y J. Sevilla, «The EU
[27] J. Flores-Vivar y F. García-Peñalvo, «Reflexiones AI Act: A pioneering effort to regulate frontier AI?»,
sobre la ética, potencialidades y retos de la Inteli- Intel. Artif., vol. 27, n.o 73, Art. n.o 73, ene. 2024, doi:
gencia Artificial en el marco de la Educación de 10.4114/intartif.vol27iss73pp55-64.
Calidad (ODS4)», Comun. Rev. Científica Comun. [39] T. Ausín, «¿Por qué ética para la Inteligencia Arti-
Educ., vol. 31, n.o 74, pp. 37-47, 2023, doi: 10.3916/ ficial? Lo viejo, lo nuevo y lo espurio», Rev. Sociol.
C74-2023-03. Tecnociencia, vol. 11, n.o 2, Art. n.o Extra_2, ago.
[28] J. G. Labrador-Fernández, «Implicaciones éticas de 2021, doi: DOI 10.24197/st.Extra_2.2021.1-16.
la Inteligencia Artificial en las Ciencias de la Edu- [40] A. Masajista, «Retos y desafíos éticos ante la inteli-
cación», Rev. Arbitr. Interdiscip. Koinonía, vol. 8, n.o gencia artificial», Rev. Teorema, vol. 40, n.o 41, pp.
16, pp. 1-3, dic. 2023, doi: 10.35381/r.k.v8i16.2545. 141-149, 2022, doi: https://researchportal.uc3m.
[29] L. Pedrero-Esteban y A. Pérez-Escoda, «Democra- es/display/act559596.
cia y digitalización: implicaciones éticas de la IA [41] M. Otero-Parga, «¿PUEDE LA INTELIGENCIA AR-
en la personalización de contenidos a través de TIFICIAL SUSTITUIR A LA MENTE HUMANA?
interfaces de voz», Recer. Rev. Pensam. Anàlisi, vol. IMPLICACIONES DE LA IA EN LOS DERECHOS
26, n.o 2, Art. n.o 2, jul. 2021, doi: 10.6035/recerca. FUNDAMENTALES Y EN LA ÉTICA», An. Cáte-
4666. dra Francisco Suárez, vol. 57, n.o 57, pp. 39-61, ene.
[30] A. Alonso-Rodríguez, «Hacia un marco ético de la 2023, doi: 10.30827/acfs.v57i.24710.
inteligencia artificial en la educación», Teoría Educ. [42] M. Mayer, «Inteligencia artificial en atención pri-
Rev. Interuniv., vol. 36, n.o 2, Art. n.o 2, jun. 2024, maria: un escenario de oportunidades y desafíos»,
doi: 10.14201/teri.31821. Aten. Primaria, vol. 55, n.o 11, p. 102744, nov. 2023,
doi: 10.1016/j.aprim.2023.102744.
[31] M. De Asis, «Ética de la Inteligencia Artificial jurí-
dica aplicada al proceso», Cuad. Electrónicos Filos. [43] R. Dávila-Morán y E. Agüero-Corzo, «Desafíos éti-
Derecho, n.o 48, Art. n.o 48, jun. 2023, doi: 10.7203/ cos de la inteligencia artificial: implicaciones para
CEFD.48.25389. la sociedad y la economía», Conrado, vol. 19, n.o 94,
pp. 137-144, oct. 2023, doi: http://scielo.sld.cu/
[32] A. Grigore, «Derechos humanos e inteligencia arti- scielo.php?script=sci_abstract&pid=S1990-864
ficial», IUS Sci., vol. 8, n.o 1, Art. n.o 1, jun. 2022, 42023000500137&lng=es&nrm=iso&tlng=es.
doi: 10.12795/IETSCIENTIA.2022.i01.10.
[44] A. Martínez-Licona, «Ética e Inteligencia Artifi-
[33] J. Cortes, «Vista de El impacto de la inteligencia cial», Contactos Rev. Educ. En Cienc. E Ing., vol. 131,
artificial en la academia: un llamado a la adapta- n. o 131, Art. n. o 131, dic. 2023, doi: https://
ción y la ética», Sci. Tech., vol. 29, n.o 1, pp. 4-6, contactos.izt.uam.mx/index.php/contactos/
2024, doi: DOI: 10.22517/23447214.25598. article/view/317.
[34] M. Flórez, «Pensamiento de diseño y marcos éticos [45] D. Arbeláez-Campillo, J. Espinoza, y M. Rojas-
para la Inteligencia Artificial: una mirada a la par- Bahamón, «Inteligencia artificial y condición
ticipación de las múltiples partes interesadas», Rev. humana: ¿Entidades contrapuestas o fuerzas
Desafíos, vol. 35, n.o 1, pp. 1-31, 2023, doi: https:// complementarias?», Rev. Cienc. Soc., vol. 27, n.o 2,
doi.org/10.12804/revistas.urosario.edu.co/ Art. n.o 2, may 2021, doi: 10.31876/rcs.v27i2.35937.
desafios/a.12183.
[46] C. Gómez-Mont, «La IA y la ética digital: reales
[35] F. Carrión, «La Mejora de la Enseñanza Obligato- posibilidades y cuestionamientos para América
ria con la Aplicación de la Inteligencia Artificial. Latina», Comunicación, vol. 50, n.o 49, Art. n.o 49,
Principios éticos, Derechos humanos y Legislación jul. 2023, doi: 10.18566/comunica.n49.a01.
necesaria», Rev. Educ. Derecho, vol. 4, n.o 28, Art.
n.o 28, oct. 2023, doi: 10.1344/REYD2023.28.42583. [47] J. Villalba, «Algor-ética: la ética en la inteligencia
artificial», An. Fac. Cienc. Juridicas Soc. Univ. Nac.
[36] M. Loayza y M. Moya, «Los retos de la inteligencia Plata, vol. 30, n.o 50, Art. n.o 50, dic. 2020, doi:
artificial en el proceso de enseñanza aprendizaje: 10.24215/25916386e062.
[48] I. Lecuona, «Aspectos éticos, legales y sociales del [56] C. Nodals, «Sobre la necesidad de unificación de
uso de la inteligencia artificial y el Big Data en sa- las iniciativas para un uso ético de la Inteligencia
lud en un contexto de pandemia», Rev. Int. Pensam. Artificial», RSocialium, vol. 5, n.o 2, Art. n.o 2, 2021,
Político, vol. 15, n.o 15, pp. 139-166, 2020, doi: doi: 10.26490/uncp.sl.2021.5.2.880.
10.46661/revintpensampolit.5599.
[57] W. Arellano y J. Pavón, «Introducción al número
[49] A. Terrones, «Inteligencia artificial y ética de la res- especial: Ética y Derecho en Inteligencia Artificial»,
ponsabilidad», Cuest. Filos., vol. 4, n.o 22, Art. n.o Intel. Artif., vol. 27, n.o 73, Art. n.o 73, ene. 2024, doi:
22, ago. 2018, doi: 10.19053/01235095.v4.n22. https://journal.iberamia.org/index.php/intartif/
2018.8311. article/view/1386.
[50] J. Tadeo, «Filosofía e Inteligencia Artificial, una [58] N. Hernández-León y M. Rodríguez-Conde, «Inte-
perspectiva ética/teleológica | Revista Eduweb», ligencia artificial aplicada a la educación y la eva-
Rev. Eduweb, vol. 17, n.o 4, pp. 117-125, 2023, doi: luación educativa en la Universidad: introducción
https://doi.org/10.46502/issn.1856-7576/2023. de sistemas de tutorización inteligentes, sistemas
17.04.12. de reconocimiento y otras tendencias futuras.», Rev.
Educ. Distancia RED, vol. 24, n.o 78, Art. n.o 78, may
[51] J. Guaña-Moya y L. Chipuxi-Fajardo, «Impacto de
2024, doi: 10.6018/red.594651.
la inteligencia artificial en la ética y la privacidad
de los datos», RECIAMUC, vol. 7, n.o 1, Art. n.o 1, [59] I. Cornejo-Plaza y R. Cippitani, «Consideraciones
may 2023, doi: 10.26820/reciamuc/7.(1).ene- éticas y jurídicas de la Inteligencia Artificial en
ro.2023.923-930. Educación Superior: desafíos y perspectivas», Rev.
Educ. Derecho, vol. 30, n.o 28, Art. n.o 28, oct. 2023,
[52] J. Piedra, «Descolonizando la “Ética de la Inteli-
doi: 10.1344/REYD2023.28.43935.
gencia Artificial”», Dilemata, vol. 34, n.o 38, Art.
n.o 38, may 2022, doi: https://www.dilemata.net/ [60] J. Vidovic-López y J. Villasmil-Espinoza, «Reflexio-
revista/index.php/dilemata/article/view/41200 nes esenciales sobre las implicaciones éticas de uso
0447. de la inteligencia artificial en la elaboración de ar-
tículos científicos de alto impacto», Multiverso J.,
[53] B. Mora, C. Aroca, L. Tiban, C. Sánchez, y A. Jimé-
vol. 4, n.o 6, Art. n.o 6, mar. 2024, doi: 10.46502/
nez, «Ética y Responsabilidad en la Implemen-
issn.2792-3681/2024.6.0.
tación de la Inteligencia Artificial en la Educación»,
Cienc. Lat. Rev. Científica Multidiscip., vol. 7, n.o 6, [61] T. Zabala, «La ética en inteligencia artificial desde
Art. n.o 6, dic. 2023, doi: 10.37811/cl_rcm.v7i6. la perspectiva del derecho», Inven. Iudicandi, vol.
8833. 16, n.o 2, Art. n. o 2, ago. 2021, doi: 10.15332/
19090528.6785.
[54] A. Guio, E. Tamayo, y P. Gomez, «MARCO ÉTICO
PARA LA INTELIGENCIA ARTIFICIAL EN CO- [62] R. Linden y L. Guimarães, «Los retos del desarrolo
LOMBIA», Departamento Administrativo de la de la in Los retos del desarrollo ético de la Inteli-
Presidencia de la República, Version 1, 2021.[En gencia Artificial», Veritas Porto Alegre, vol. 65, n.o 3,
línea]. Disponible en: https://minciencias.gov.co/ pp. e38564-e38564, dic. 2020, doi: 10.15448/1984-
sites/default/files/marco-etico-ia-colombia- 6746.2020.3.38564.
2021.pdf
[55] W. E. Ulrich-Astaiza, «La necesidad de un marco
ético y legal obligatorio para la inteligencia artifi-
cial y los algoritmos en Colombia», DIXI, vol. 25,
n.o 2, Art. n.o 2, jul. 2023, doi: 10.16925/2357-
5891.2023.02.04.