Gerencia de servicios de salud.
Evidencia de aprendizaje. Una mirada alternativa.
Desarrollo Humano.
El dílema ético de las inteligencias artificiales (IA).
Presenta:
Dr. Manuel Iván Ramírez Esparza
Asesor:
Ignacio Lagunes Carrera
Chihuahua, Chihuahua Fecha 26/02/2023
Introducción.
La inteligencia artificial (IA) se está desarrollando rápidamente y se está convirtiendo en
una parte integral de nuestra vida cotidiana. Desde asistentes virtuales en nuestros
teléfonos móviles hasta sistemas de conducción autónoma en vehículos, la IA está
transformando la forma en que interactuamos con el mundo y entre nosotros. Sin embargo,
el rápido avance de la tecnología de la IA también plantea importantes dilemas éticos que
debemos abordar.
Las Inteligencias Artificiales (IA) son sistemas informáticos diseñados para realizar tareas
que requerirían inteligencia humana, como el aprendizaje, la toma de decisiones y la
resolución de problemas. Las IA son capaces de procesar grandes cantidades de datos,
aprender de ellos y tomar decisiones basadas en esos datos de manera más rápida y
eficiente que los humanos. A medida que la tecnología sigue avanzando, las IA se están
volviendo cada vez más complejas y poderosas, lo que plantea importantes preguntas éticas
y sociales que debemos abordar para asegurar que se utilicen de manera responsable y
beneficiosa para la humanidad. (Floridi, 2019)
Ejemplos de IA´s en nuestro mundo:
1. Siri: es un asistente virtual desarrollado por Apple que utiliza la IA para responder
preguntas, realizar tareas y ayudar a los usuarios a controlar sus dispositivos.
2. Alexa: es el asistente virtual desarrollado por Amazon, que utiliza la IA para
responder preguntas, reproducir música, controlar dispositivos inteligentes para el
hogar y realizar compras en línea.
3. Tesla Autopilot: es un sistema de conducción autónoma desarrollado por Tesla que
utiliza la IA para ayudar a los conductores en la carretera.
Desarrollo. Chatgpt y ética, por que los robots nos quieren llevar por el buen camino.
Uno de los principales dilemas éticos en las IA es el tema de la responsabilidad. ¿Quién es
responsable de las decisiones tomadas por un sistema de IA? Si un automóvil autónomo se
ve involucrado en un accidente, ¿es el fabricante del vehículo, el programador del sistema
de IA o el propietario del automóvil quien debería asumir la responsabilidad? Además,
¿cómo podemos garantizar que los sistemas de IA sean responsables y transparentes en sus
decisiones?
Otro dilema ético importante es la privacidad y la protección de datos. Los sistemas de IA
recopilan y analizan grandes cantidades de datos sobre los usuarios, lo que plantea
preguntas sobre la privacidad y la protección de datos personales. ¿Cómo podemos
garantizar que los sistemas de IA no se utilicen para el espionaje o la vigilancia ilegal? ¿Cómo
podemos asegurarnos de que los datos recopilados por los sistemas de IA se utilicen de
manera ética y respeten los derechos de los usuarios?
También existe el dilema ético de la discriminación y el sesgo en la IA. Los sistemas de IA se
basan en algoritmos y datos, y si estos algoritmos y datos están sesgados, pueden perpetuar
la discriminación y el sesgo en la toma de decisiones. Por ejemplo, los algoritmos de
aprendizaje automático pueden perpetuar estereotipos de género o raza si se entrenan con
datos sesgados. Es importante que las empresas y los desarrolladores de IA trabajen para
garantizar que los sistemas de IA sean justos e imparciales en su toma de decisiones.
Además, también está el dilema ético de la automatización y el impacto en el empleo. Si los
sistemas de IA se utilizan para automatizar ciertos trabajos, ¿qué sucederá con los
trabajadores que pierdan sus empleos? (Etzioni & Etzioni, 2017). ¿Cómo podemos
garantizar que la automatización no tenga un impacto negativo en la economía y en la
sociedad en general?
En noviembre del 2021 por primera vez en el historia los paises pertenecientes a la unesco
tuvieron una conversación sobre las IA, en la que desarrollaron un acuerdo mundial sobre
la ética de las IA dando las siguientes recomendaciones:
Protección de datos.
La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y
los gobiernos para garantizar a las personas una mayor protección, asegurando la
transparencia, la capacidad de actuar y el control de sus datos personales. Afirma que todos
los individuos deberían poder acceder a sus registros de datos personales o incluso
borrarlos. (Yang, 2021)
Prohibición de los marcadores sociales y la vigilancia masiva
La Recomendación prohíbe explícitamente el uso de sistemas de inteligencia artificial para
la calificación social y la vigilancia masiva. Este tipo de tecnologías son muy invasivas,
vulneran los derechos humanos y las libertades fundamentales y se utilizan de forma
generalizada. (Yang, 2021)
“Las decisiones que afectan a millones de personas deben ser justas, transparentes y
contestables. Estas nuevas tecnologías deben ayudarnos a afrontar los principales retos de
nuestro mundo actual, como el aumento de las desigualdades y la crisis medioambiental, y
no profundizar en ellos”, declaró Gabriela Ramos, subdirectora general de Ciencias Sociales
y Humanas de la UNESCO.
Podcast: https://1drv.ms/u/s!AvJlD8Y-2uAHam-mBbeYrGRXIvU?e=0X1jAn
Conclusión.
El rápido avance de la tecnología de la IA plantea importantes dilemas éticos que debemos
abordar. Es importante que los desarrolladores, las empresas y la sociedad en su conjunto
trabajen juntos para garantizar que los sistemas de IA sean responsables, transparentes,
justos e imparciales en su toma de decisiones, protejan la privacidad y los datos personales,
y minimicen el impacto negativo en el empleo y en la sociedad en general. La ética debe ser
una consideración fundamental en el desarrollo y la implementación de la tecnología de la
IA, y debemos asegurarnos de que la IA se utilice para mejorar la calidad de vida de las
personas y no para dañarla.
Bibliografía.
Floridi, L. (2019). The logic of information: A theory of philosophy as conceptual design.
Oxford University Press. https://academic.oup.com/book/27824
Etzioni, A., & Etzioni, O. (2017). Incorporating ethics into artificial intelligence. Journal of
Ethics, 21(4), 403-418. https://link.springer.com/chapter/10.1007/978-3-319-69623-2_15
Sadin, E. (2023). ChatGPT y ética: por qué los robots nos quieren llevar por el buen
camino. El país. https://elpais.com/ideas/2023-02-24/chatgpt-y-etica-por-que-los-robots-
nos-quieren-llevar-por-el-buen-camino.html
Yang, C. (25 de noviembre 2021). Primer acuerdo mundial sobre la ética de la inteligencia
artificial. Noticias ONU. https://news.un.org/es/story/2021/11/1500522