0% encontró este documento útil (0 votos)
59 vistas32 páginas

A.i, Lectura

El documento aborda la necesidad de adaptar la regulación y los mecanismos democráticos a la era digital, donde la información circula rápidamente y los desafíos como la desinformación y la privacidad son cada vez más complejos. Se propone una regulación más estricta de las tecnologías digitales, especialmente la inteligencia artificial, y la colaboración entre gobiernos, empresas y ciudadanos para proteger los derechos fundamentales. Sin embargo, se plantea la duda sobre si las instituciones actuales son capaces de responder eficazmente a estos retos en un entorno digital en constante evolución.

Cargado por

Leonardo Espejel
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
59 vistas32 páginas

A.i, Lectura

El documento aborda la necesidad de adaptar la regulación y los mecanismos democráticos a la era digital, donde la información circula rápidamente y los desafíos como la desinformación y la privacidad son cada vez más complejos. Se propone una regulación más estricta de las tecnologías digitales, especialmente la inteligencia artificial, y la colaboración entre gobiernos, empresas y ciudadanos para proteger los derechos fundamentales. Sin embargo, se plantea la duda sobre si las instituciones actuales son capaces de responder eficazmente a estos retos en un entorno digital en constante evolución.

Cargado por

Leonardo Espejel
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 32

"'

"'"N'
COMITÉ CIENTÍFICO DE LA EDITORIAL TIRANT LO BLANCH
EL FUTURO DE LA
MARÍA JOSÉ AÑ6N ROIG MARTA LORENTE SARIÑENA
Catedrática de Filosofía del Derecho
de la Universidad de Valencia
Catedrática de Historia del Derecho
de la Universidad Autónoma de Madrid
REGULACIÓN EN
ANA CAÑIZARES LAso JAVIER DE LUCAS MARTÍN
Catedrática de Derecho Civil
de la Universidad de Málaga
Catedrático de Filosofía del Derecho
y Filosofía Polftica de la Universidad de Valencia
LA ERA DIGITAL
JORGE A. (ERDIO HERRAN VÍCTOR MORENO CAYENA
Catedrático de Teorfa y Filosofía del Derecho Catedrático de Derecho Procesal
Instituto Tecnológico Autónomo de México
JOSÉ RAM6N Cossfo DIAZ
de la Universid a d Carlos 111de Madrid TEMAS SELECTOS
FRANCISCO MUÑOZ CONDE
Ministro en retiro de la Suprema Catedrático de Derecho Penal
Corte de Justicia de la Nación de la Universidad Pablo de Olavide de Sevilla
y miembro de El Colegio Nacional ANGELIKA NUSSBERGER
MARÍA LUISA (YERDA ARNAU Catedrática de Derecho Constitucional
Catedrática de Derecho Penal e Internacional en la Universidad de Colonia
de la Universidad Jaume I de Castellón (Alemania). Miembro de la Comisión de Venecia
MANUEL DíAZ MARTÍNEZ HÉCTOR 0LASOLO ALONSO
Catedrático de Derecho Procesal de la UNED Catedrático de Derecho Internacional
CARMEN 00MÍNGUEZ HIDALGO de la Universidad del Rosario (Colombia)
Catedrática de Derecho Civil y Presidente del Instituto Ibero-Americano
de la Pontificia Universidad Católica de Chile de La Haya (Holanda)
EDUARDO fERRER MAC•GREGOR POISOT LUCIANO PAREJO ALFONSO
Juez de la Corte Interamericano Catedrático de Derecho Administrativo
de Derechos Humanos de la Universidad Carlos JI/ de Madrid
Investigador del Instituto de Investigaciones CONSUELO RAM6N CHORNET
Coordinadora:
Juridicas de la UNAM Catedrátic a de Derecho Internacional EILEEN M.Arus CALLEROS
OWEN F1ss Público y Relaciones Internacionales
Catedrático emérito de Teorfa del Derecho de la Universidad de Valencia
de la Universidad de Yale (EEUU) TOMAS SALA FRANCO
JOSÉ ANTONIO GARCÍA-CRUCES GoNzALEZ Catedrático de Derecho del Trabajo y de la
Catedrático de Derecho Mercantil de la UNED Seguridad Social de la Universidad de Valencia
JOSÉ LUIS GoNzALEZ CuSSAC IGNACIO SANCHO GARGALLO
Catedrático de Derecho Penal Magistrado de la Sala Primera (Civil)
de la Universidad de Valencia del Tribunal Supremo de España
LUIS L6PEZ GUERRA ELISA SPECKMAN GUERRA
Catedrático de Derecho Constitucional Directora del Instituto de Investigaciones
de la Universidad Carlos ti/ de Madrid Históricas de la UNAM
ANGEL M. L6PEZ Y L6PEZ RUTH ZIMMERLIN G
Catedrático de Derecho Civil Catedrática de Ciencia Polltica
de la Universidad deSevilla de la Universidad de Mainz (Alemania)
Fueron miembros de este Comité:
Emilio Beltrán Sánchez, Rosario Valpuesta Fern6ndez y Tomás S. Vives Antón
tirant lo blanch
Ciudad de México, 2024
ProcMimient o de selec<: 16n de orlginales. ver p gina web:
www.tirantnet/index.php/ edit oriaVprocedimiento-de-seleccion-de-orlginales
Copyright ® 2024 ,,
Todos los derechos res ervados. N i la t otalidad ni parte de est e libro Indice
puede reproducirs e o trans mitirs e por ningún procedimient o elec-
trónico o mecánico, incluyendo fotocopia, grabación magnética, o
cualquier almacenamient o de información y s ist ema de recuperación
sin permiso escrito de los autores y del editor.
Presentación ............................................................................. 9
En caso de erratas y actualizaciones, la Editorial Tirant lo Blanch publi- E. MATUS
cará la pertinente corrección en la página webwww.tirant.com/mex/.
I. DE LA REGULACI ÓN

Inteligencia regulatoria. La regulación sectorial en un mundo digUal


cada vez más tecnológico .... .... ...... ........ ......... .... ...................... 17
EILEEN MATUS GALLEROS

Organismos constitucionales autónomos y la Iniciativa presidencial de


su desaparición.......................................................................59
JOSÉ ROLDÁN XOP A

Efectos insospechados de los esquemas reg;ulatorios............... ........... 93


© Eileen M atus Calleros LEONARDO MARTÍNE Z FLORES
ELENA ESTAVILL O

Competencia y regulación: Orígenes y desafíos de dos principios comple-


mentarios. ............................................................................ 1O7
© TIRANT LO BLANCH ANDREA MARVÁN SALTIEL

DISTRIBUYE: TIRANT LO BLANCH M ÉXICO


Av Tamaulipas 150, Oficina 502 Inteligencia Artificial: juego de Funámbulo entre Incertidumhre e
Hipódromo, Cuauhtémoc, 06100, Ciudad de M éxico Inflación Reglamentaria. ....................................................... 137
Telf.: +5215565502317 P HILIP P E P RINCE TRITIO
[email protected]
www.tirant.com/mex/ 11. REGULACI ÓN SECTORIAL
www.tirant.es
ISBN: 978-84-1071-235-5
Reformismo en el sector de las telecomunicaciones y el cambio en la
Si tiene alguna queja o sugerencia, envíenos un mail a: atencioncliente@tirant. noción estándar de regulación. ............................................... 197
com. En cas o de no s er atendida su sugerencia, por favor, lea en www.ti rant. CLARA Luz ÁLvAREZ
netlindex.php/empresa/polítícas-de-empresa nuestro procedimiento de quejas. JostjULI Á N DoMÍN G U E Z ARROY O

ResponsabilidadSocial Corporativa: http://www.tirant.net/Docs/RSCTirant.pdf

Impreso en octubre de 2024 en los talleres de Litográfica Ingramex, S.A. de C.V.,


Centeno 162-1, Col. Granjas Esmeralda, C.P. 09810, Ciudad de M éxico.
136 .ANDREA MARVÁN SALTIEL

Oxfam. (2024). DESIGUA LDA D S.A. Recuperado de [https:/ / oi-files-d8-


prod.s3.eu -west-2.amazonaws.co m/s 3fs-public/ 2024-01/Davos%20
Inteligencia Artificial:Juego de
2024%20Repo rt%20-%20Span ish.pdf] y To e Counterbalance.
Europe's Monopo ly Problem. Recuperado d e [https ://thecounter- Funámbulo entre Incertidumbre
balance.substack.com/p/europes -monopoly-problem]
Whyte,J. (2019) The Mo rals ofthe Market : Hu man Rights and the Rise e Inflación Reglamentaria
ofNeoliberalis m. pp 6. Verso.

PHILIPPE PRINCE TRITIO

La democracia se construyó sobre el papel y la palabra ha-


blada.-Hoy navega en el incesante fluido de la tecnología digi-
Lal, impulsada no solo por Internet sino también, y sobre todo,
por los deslumbrantes avances de la inteligencia artificial (IA).
Ante esta constatación, surge una pregunta importante:
¿están preparados los mecanismos democráticos, diseñados
para una época en la que la información circulaba a la velo-
ddad de los periódicos y los debates públicos, para regular el
océano digital, donde los datos se propagan a la velocidad de
la luz? Las instituciones actuales funcionan con herramientas
y marcos jurídicos que luchan por abarcar la complejidad y
la inmediatez del entorno digital. Esta realidad es aún más
sorprendente si tenemos en cuentá la facilidad con la que la
Información, verdadera o falsa, circula por las redes sociales,
Influyendo en la opinión pública y, por extensión, en el pro-
pio proceso democrático.
Por un lado, disponemos de estructuras institucionales rígi-
das, basadas en principios de deliberación, representación y le-
galidad, que pretenden garantizar una gobernanza equilibrada
y ponderada. Por otro, el problema digital se caracteriza por su
volatilidad, rapidez y ubicuidad, trascendiendo las fronteras geo-
gráficas y jurídicas tradicionales. Esta dicotomía plantea cuestio-
nes fundamentales sobre la capacidad de las instituciones para
responder eficazmente a los retos que plantea el mundo digital,
138 P HILIP P E P RINCE Thrrro l nteligencia Artificial... 139

en particular en términos de desinformación, ciberataques y a un ritmo lo suficientemente rápido como para contrarrestar
protección de la intimidad, amplificados por algoritmos de 1A las amenazas digitales emergentes, sin comprometer los princi-
capaces de generar contenidos falsos pero convincentes, cibe- pios democráticos fundamentales.
rataques complejos y dinámicos, y elaboración de perfiles invisi- Y aquí es donde llegamos a un punto crucial. Los derechos
bles pero inttusivos al servicio de una industria publicitaria con
fundamentales heredados de la Ilustración -como la libertad
un poder económico y social sin precedentes históricos.
de expresión, la privacidad y el acceso a la información- con-
Se proponen soluciones en forma de una regulación más servan su importancia vital, pero están adquiriendo nuevas
estricta de las tecnologías digitales, en particular de la IA, la implicaciones. La digitalización no ha alterado el significado
adaptación de los procesos democráticos a las nuevas tecnolo- intrínseco de estos derechos, pero ha ampliado considerable-
gías, el desarrollo de herramientas digitales de participación mente su alcance, introduciendo tanto oportunidades como
ciudadana y el refuerzo de la cooperación internacional a tra- retos sin precedentes.
vés de foros y acu,erdos multilaterales destinados a armonizar La libertad de expresión, por ejemplo, se beneficia de una
las regulaciones. Asimismo, la adopción de mecanismos de
plataforma global gracias a Internet, que permite la difusión
regulación ca -innovadores, en los que los agentes del sector instantánea y sin fronteras de las ideas. Sin embargo, esta mis-
tecnológico participen en la elaboración de normas, es un in- ma accesibilidad plantea cuestiones complejas sobre la incita-
tento de ofrecer una vía intermedia que fomente la innovación
ción al odio, la desinformación y los límites de la libertad de
y proteja el interés público. 1 La idea es que estas iniciativas con- expresión en línea. Del mismo modo, el derecho a la privaci-
cilien los fundamentos de la democracia con las realidades de l dad está sometido a fuertes tensiones en un mundo en el que
siglo XXI, desarrollando instituciones que no sólo sean reacti- nuestros datos personales son constantemente recopilados,
vas, sino·también proactivas frente al cambio digital. La cues- analizados y comercializados por entidades privadas y públicas,
tión es si son adecuadas para su propósito. hasta tal punto que algunos llegan a dudar de la pertinencia de
Esta transformación institucional, aunque necesaria, está mantener este derecho en nuestro panorama ante la despreo-
plagada de escollos. Requiere una reflexión profunda sobre cupación con la que las personas renuncian al control de sus
los valores democráticos que deseamos preservar en la era di- datos, mientras que otros sólo se enfocan en la preservación de
gital, así como una estrecha colaboración entre gobiernos, em- este derecho para orientar la regulación de los sistemas de IA,
presas tecnológicas, sociedad civil y ciudadanos. Así que existe oscureciendo el debate sobre los otros riesgos, si no existencia-
un interrogante acerca de si esta evolución puede tener lugar les, al menos depredadores para la estabilidad de las democra-
cias modernas. Citaremos sólo el.ejemplo de los sistemas de re-
comendación de contenidos impulsados por IA, cuyo uso por
parte de gobiernos y empresas plantea importantes cuestiones
Nos referimos a los llamados sandboxes regulatorios. Ver: Parlamen-
éticas y jurídicas sobre la privacidad, la vigilancia y la libertad
to Europeo, Regl,amento (VE) 2024/1689 del Parl,amento Europeo y del
Consejo de 13 de junio de 2024 por el que se establecen normas armoniza- de opinión y pensamiento.
das en materia de inteligencia artificial, art. 53, Un ión Eu ropea, 12 de Por ende, la extensión de estos derechos al entorno digital
julio de 2024, https:/ / eur-lex.europa.eu/legal-content/ES/TXT/ exige una reinterpretación y adaptación de los marcos jurídi-
HTML/?uri=OJ, último acceso el 31 de julio de 2024.
140 P HILIP P E P RINCE ThITIO Inteligencia Artificial... 141

cos existentes. Ya no se trata sólo de proteger a los individuos gunos- que a veces hace caso omiso de todo el rigor jurídico ne-
contra la intrusión del Estado, sino también contra los posibles cesario para unas técnicas de regulación pertinentes y eficaces.
abusos de los gigantes tecnológicos y otros agentes digitales Si tuviéramos que formular una pregunta inicial para el
mediante el uso de la IA. Esta situación exige un replantea- presente capítulo, sería entonces la siguiente: ¿podemos real-
miento de los mecanismos de protección y regulación para mente conciliar los ancestrales principios democráticos con la
garantizar el respeto de los derechos fundamentales en este fluidez e inmediatez de la tecnología digital, o estamos asis-
espacio virtual omnipresente. tiendo a la aparición de una nueva forma de regulación aún
Sin embargo, nuestras sociedades parecen estancadas en no imaginada?
una lógica reguladora tradicional, cuando todo indica que es- Por otra parte, la autoridad de las instituciones' democráticas
tamos llegando al final del camino. La respuesta clásica -para sobre el mundo digital tropieza con una paradoja adicional: tie-
no decir el estribillo- a estos retos es la creación de nuevas le- nen poder para legislar, pero s brazo parece demasiado corto
yes, o reglamentos internacionales, y su contrapartida sistemá- para poner grilletes al gigante tecnológico. El verdadero alcan-
tica: una institución reguladora que funcione sobre la base de ce de su gavel digital está aún por determinar a la luz de ciertas
controles a posteriori y sanciones financieras. Pero, como han tecnologías, de influencia libertaria, que responsabilizan cada
demostrado varios autores, nunca se toma en serio el impacto vez más al individuo que a la sociedad, al tiempo que eliminan
real de las normativas, ni tampoco sus efectos inesperados.2 la posibilidad de medios de acción tradicionales como la justi-
Peor aún, la introducción de normas éticas y prácticas res- cia, la ley y la regulación, así como la acción pública. 4 ·

ponsables en documentos declarativos por parte de las empre- La aplicación efectiva de la regulación tecnológica por par-
sas tecnológicas parece bastar para poner fin al debate, como te de las instituciones democráticas se ve·a menudo obstacu-
si la confianza se basara únicamente en un acto de fe.3 Estamos lizada por varios factores clave. En primer lugar, la agilidad y
asistienqo a la aparición de un nuevo lenguaje en el ámbito de l rapidez de la innovación en el sector tecnológico superan con
derecho -ética de la 1A (o 1A ética, según el caso), sistemas de creces la lentitud procedimental de los procesos legislativos y
IA, fideicomisos de datos, contratos inteligentes, por nombrar solo al- reguladores. Mientras que las nuevas aplicaciones y tecnolo-

Por ejemp lo, aunqu e lo qu isiera un juez, no pued e interv enir en


2 Un ejemp lo es el clásico trab ajo d e Robert K. M ertonde 1936 « The un contrato inteligente (sma rt contra ct) para interru mp ir su ejecu -
Un intended Consequences of Purpos ive So cial Act ion» , una ob ra ción o tener una v ia de ejecución concreta despues de declararlo
fundacional para co mp render la co mp lejidad de las acciones so- nulo (es decir, que todo vuelva co mo si n ada hub iera p asado). La
ciales y sus resultados, que es d irectamente relev ante p ara el debate prop ia estructu ra de la cadena de b loques imp id e cualqu ier acción
sobre la no rmativ a y sus efectos. Ver: Garfield , Eug ene. "The un - externa de una autoridad púb lica. A cerca d e lo que son los smart
intended and unanticipated consequences of Robert K. Merton," contracts para entender sus imp licaciones, ver: Abd elhamid, M anar
. Social Studies of Science 34, no. 6, 2004, pp. 845-853. y Ghad a Hassan, « Blockchain and s mart contracts,» Proceeding s o f
3 Hyman, Michael R., Robert Skipper, and Richard Tansey, "Ethical the 8th International Conjerence on Software and Information Engi,nee-
codes are not enough," Business Hariums 33, no. 2, 1990, pp. 15-23. ring, 2019, pp. 91-95.
142 P HILIP P E P RINCE TRITTO Inteligencia Artificial... 143

gías surgen a una velocidad vertiginosa, los marcos legislativos transparencia, y mostrando la necesidad de redefinir los mar-
tardan años en ponerse en marcha, lo que crea un desfase tem- cos legales para garantizar la equidad y la justicia.
poral en el que las normas se quedan obsoletas antes incluso Hay muchas razones para creer que las instituciones demo-
de ser aplicadas. La regulación de la IA presenta aquí retos úni- cráticas no pueden controlar realmente a la hidra digital. Pare-
cos, exacerbados por la velocidad de su evolución, su adopción cen condenadas a jugar al gato y al ratón, en el que el gato no
rápidamente acelerada y la complejidad de sus aplicaciones, sólo está ciego, sino también obstaculizado por las cadenas de
que a menudo superan los marcos reguladores tradicionales su propia creación. Esto plantea una segunda cuestión que po-
diseñados para una era predigital. dría redefinir los fundamentos mismos de nuestra gobernanza
En segundo lugar, la naturaleza global de la tecnología digi- en la era digital: ¿la solución reside realmente en la elabora-
tal plantea un reto importante en términos de jurisdicción. Las ción de nuevas leyes y reglamentos, o debemos plantearnos
empresas tecnológicas, con sus operaciones transfronterizas, una revisión más profunda de nuestros planteamientos de la
pueden eludir fácilmente las normativas nacionales deslocali- gobemanza en la era digital, en la que el poder de los actores
zando sus actividades o aprovechando las diferencias entre sis- de la IA, arraigado en el incertidumbre en cuanto a su regula-
temas jurídicos. Esta realidad pone de manifiesto una laguna ción prospectiva, es a la vez el pilar y el principal reto?
crucial en la propia arquitectura de nuestras instituciones, di- Las respuestas a este breve panorama no son sencillas, dada
señadas en un contexto territorial definido, frente a un espacio la complejidad de los retos y la diversidad de intereses en jue-
digital sin fronteras. go. En la primera sección, examinaremos las carencias del le-
En tercer lugar, las instituciones carecen a menudo de los gislador y la dinámica de la información como metrónomo de
conocimientos técnicos necesarios para regular eficazmente el la socialización contemporánea, cuestionando la pertinencia
sector tecnológico. La complejidad de las tecnologías actuales, y la necesidad de normativas adicionales en un contexto en el
en particular la IA, requiere una profunda comprensión no que ya están en juego los derechos humanos. Discutiremos la
sólo de los aspectos técnicos, sino también de las implicaciones rigidez de los marcos normativos existentes y·su falta de neu-
éticas, sociales y económicas de su despliegue y explotación tralidad tecnológica, al tiempo que subrayaremos la utopía de
de datos. Esta falta de conocimientos crea una asimetría de un consenso normativo en torno a la IA, dada su omnipresen-
información entre los reguladores y los regulados, ya que estos da sectorial y su implicación en las prerrogativas estatales y las
últimos pueden eludir fácilmente, o incluso manipular, los in- t cnicas jurídicas empleadas. En este primer bloque también
tentos de regulación. 1e criticará la pertinencia de los tipos de regulación tradicio-
nales a través de ejemplos concretos que cuestionan su aplica-
En cuarto y último lugar, ciertas estructuras digitales, como rión en el contexto actual. Esta sección es imprescindible para
los blockchains, o la opacidad de muchos modelos de machine rualquier persona que participe en debates de fondo sobre la
learning, ya sea por su complejidad o por su carácter propie- lA, e n particular en el sector público, o esté interesada en las
tario, impiden el control y bloquean cualquier medio oficial Implicaciones sociales y éticas_de la regulación tecnológica.
de exigibilidad dirigido a proteger derechos individuales o co- Quienes son responsables de la toma de decisiones, el exper-
lectivos, poniendo en cuestión nuestras concepciones tradicio- tnclo jurídico y activistas de derechos humanos encontrarán
nales de responsabilidad, estrategias de intervención estatal y
144 P HILIP P E P RINCE TRITIO Inteligencia Artificial... 145

reflexiones críticas que alimentarán su comprensión de los Iniciaremos nuestro viaje explorando la noción de "autono-
problemas actuales. mía" y su complejidad inherente, sumergiéndonos en la dua-
En la segunda sección, centraremos nuestra atención en la lidad que la 1A representa: una tecnología que modela y es
complejidad intrínseca de los sistemas reguladores frente a la modelada por la información, cuya autonomía elusiva desafía
IA. Exploraremos la naturaleza a menudo inestable e impre- la estructura misma de nuestra regulación y ética social (1).
decible de la regulación, evocando la dificultad de predecir Seguimos examinando la tensión entre la necesidad impera-
su impacto en un campo tan vasto e interconectado. Desta- tiva de regular y la dificultad de encauzar una tecnología en
caremos la necesidad de re novar los conocimientos jurídicos perpetuo cambio, resaltando la insuficiencia de las estrategias
en el proceso regulador, para evitar dejar estas cuestiones cru- regulatorias actuales frente a la metamorfosis constante de las
ciales al arbitrio de ingenieros y empresas tecnológicas. En tecnologías 1A (2). Por último, nos adentramos en la ilusión
este bloque, también propondremos la exploración de una vía del consenso normativo (3); donde la búsqueda de un marco
de regulación que. se impone como una evidencia despues de regulatorio mundial se revela como una quimera, desvelando
la diversidad de aplicaciones y percepciones de la 1A como un
analizar el poder de los agentes tecnológicos, y que es de natu-
raleza constitucional. Los perfiles interesados en esta sección reflejo de nuestra propia heterogeneidad social y cultural.
son los de profesionales y teóricos del derecho, especialistas en
regulación, así como investigadores en ciencias de la informa- l. La "Autonomía": comprender lo que está en juego
ción y la comunicación, que buscan comprender la dinámica
subyacente a la regulación de la 1A y su impacto en la sociedad. La información no es un mero flujo de datos; según Niklas
Para quienes tengan interés en saber cómo podría evolucionar Luhmann, es la base de nuestra socialización. 5 Da forma a
la regulación ante los retos que plantean las tecnologías avan- nuestras interacciones, nuestras instituciones e incluso nuestra
zadas, esta sección ofrece un análisis profundo y crítico de las conciencia colectiva. Es pertinente ener en cuenta esta pers-
tendencias actuales y futuras. pectiva a la hora de analizar nuestro objeto de estudio. Luh-
mann nos ha demostrado que, en una sociedad compleja, la
información construye y destruye significados. Esta dualidad se
SECCIÓN 1: CRÓNICA DE UN FRACASO ANUNCIADO: exacerba cuando se trata de la IA, cuya propia autonomía sigue
1A REGUIACIÓN PUESTA A PRUEBA POR 1A 1A siendo un enigma.
De hecho, existen varias interpretaciones contrapuestas de
En la encrucijada de la modernidad, donde la 1A se entrete-
la autonomía, sin que se llegue a un consenso. Sheridan y Ver-
je intrínsecamente en el tapiz de nuestra cotidianidad, se des-
plank ofrecieron una taxonomía de la autonomía, en la que el
pliega ante nosotros una narrativa que desafía los confines de
riesgo de sesgo de automatización se ajusta en función de las
nuestra comprensión y gobemanza tradicionales. Esta sección
tareas a realizar, con diez niveles de automatización que van
se adentra en el laberinto de la regulación de la IA, una odisea
marcada por la ambigüedad, el dinamismo y la contienda por
la definición de la autonomía. ó
Luhman, Niklas, "Tautology and Paradox in the Self-Descriptions of
Modero Society," Sociological Theory 6, no. 1, 1988, pp. 21-37.
146 P HILIP P E P RINCE T'RITTO Inteligencia Artificial... 147

gradualmente desde "El humano hace todo el trabajo hasta el dencia emergente, que desafia nuestras categorizaciones tradi-
punto de entregárselo a la computadora para que lo ejecute" cionales. 9 Esta vaguedad conceptual no sólo paraliza la elabo-
hasta "la computadora hace todo el trabajo si decide que debe ración de normativas, sino que también plantea interrogantes
hacerse, y si es así, se lo dice al humano, si decide que debe sobre la esencia misma de nuestro ordenamiento jurídico y
decírselo al humano". 6 Si nos fijamos bien en esta taxonomía y nuestra capacidad para anticipamos a los cambios tecnológi-
otras, en realidad, hablar de sistemas autónomos parece tener cos. La cuestión de la autonomía de la IA es, por tanto, central,
más que ver con la confianza que los humanos tienen en los y nunca se define en las distintas iniciativas de gobemanza de
sistemas y el grado en que deciden dejarles meter mano, que la IA. Parece presuponerse, darse por sentado y aplicarse a los
con una capacidad intrínseca de autonomía en los sistemas,7 sistemas de IA sin lugar a dudas. P or ejemplo, la Declaración
aunque los autores estén cometiendo una proyección antropo- de Montreal para el Desarrollo Responsable de la IA postulaba
mórfica al hablar de "decisión" para una máquina. Otras con- la existencia de sistemas autónomos ya en 2018, en su preám-
cepciones de la autonomía de los sistemas de IA la sitúan como bulo, sin definir qué se entendía por ello más allá de que son
una simple extensión de la programación humana, 8 mientras "capaces de llevar a cabo tareas complejas que considerábamos
que hay quienes la ven como una nueva forma de indepen- que solo la inteligencia natural era capaz de hacer",10 nada que
permita deducir algo sobre la naturaleza de los sistemas de IA
o su comprensión desde un punto de vista jurídico.
6
Tho mas B Sheridan y W illiam L Verp lan k, "Hu man and Co mputer
Cont ro l o f Under-sea Teleoperato rs," Technical Rep mt , M assachu-
setts Institute of Techno logy, 14 Ju ly 1978, pp. 8-17. Traducción
por el autor. pp. 63-77. Kyle E.Jennings, "Developing Creativity: Artificial Barriers
7
Para saber cómo interpretar la taxonomía de Sheridan & Verplank, in Artificial Intelligence," Minds and Machines, 20, 2010, pp. 489-501.
Tim McFarland, en su libro Autonomous Weapon Systems and the Law Jimming Lu i et al. p resentan la in fo rmática orientad a a la autono mía
of Armed Conflict - Cornpatibility with International Humanitarian Law, (A OC po r sus siglas en ing lés) co mo un parad ig ma que describe
recomienda consultar Defense Science Board, "The Role of Auton- los sistemas in formát icos con co mponentes autóno mos, d estacando
omy in DoD Systems," Task Furce Repmt, US Department of Defense, la autono mía emergente y la auto organ ización. Del mis mo modo,
julio de 2012, pp. 23-4. Wolfhart Totschnig exp lora la capacidad d e un agente de IA p ara
8 Por ejemp lo, Hamid Ekb ia exp lora la tensión existente en la 1A entre camb iar su ob jet ivo final co mo parte de su desarro llo, desafiando
la construcción de sistemas lo suficientemente co mplejos como para los supuestos tradicion ales sobre la natu raleza de los ob jetivos y los
iniciar acciones por sí mismos y lo suficientemente simples como valo res ysugiriendo una fo rma de independencia emerg ente dentro
para ser comprensibles y controlables por los seres humanos, des- de los s istemas de IA . Jiming Liu , Xiao long Jin y K. Tsui, "Autono-
tacando la naturaleza de los sistemas de IA como extensiones de my-oriented computing (AOC): formulating computational systems
la programación humana, y Ky le Jennings analiza el concepto de with autonomous components," IEEE Transactions on Systems, Man,
"creative autonorny" en los sistemas de IA, donde la cuestión princi- and Cybernetics - Part A: Systems and Hu mans, 35, 2005, pp. 879-902.
pal es si el software es simplemente una extensión de la creativ idad Wolfhart Totschnig, "Fully Autonomous Al," Science and Engineering
del desarrollador o si posee alguna forma de autonomía creativa. H. Ethics, 26, 2020, pp. 2473 • 2485.
Ekbia, "Heterono mous Humans and Autonomous Agents: Toward 10
Universidad de Montreal, Declaración de montreal para un desarrol/.o res-
Artificial Relational lntelligence," Beyond Artificial Jntelligence. Tapies ponsabl,e de la inteligencia artificial, University of Montreal, Montreal,
in Intelligent Engineering and Infurmatics, vol 9, Springer, Charo, 2015, 2018, https:/ /www.montrealdeclaration-responsibleai.com/, p. 7
148 P HILIP P E P RINCE TRITIO lnllligtncia Artificial... 149

Sin embargo, dada esta tendencia, una definición de la au- Sin embargo, el planteamiento de Luhmann sobre la com-
tonomía de la 1A podría basarse en la teoría de los sistemas plejidad de los sistemas sociales nos permite ir más allá, aplicán-
sociales de Luhmann. Quiza Luhmann hubiera considerado dose sorprendentemente bien al mundo de la IA. Luhmann
ciertos sistemas de 1A contemporáneos como sistemas au- l\lgiere que, para comprender un sistema, debemos obse ar
topoiéticos, es decir, capaz de reproducirse y modificarse de cómo se comunica, cómo circula y se procesa la información.14
forma autónoma. Luhmann recuerda que en un sistema auto- Aplicado a la IA, esto significa profundizar en los algoritmos,
poiético, como nuestra sociedad, los elementos se autoorgani- los procesos de aprendizaje automático y las decisiones que to-
zan y autorreproducen según sus propias reglas, lo que hace man los sistemas autónomos.
aún más ardua la tarea de regulación.11 Pero esta inmersión revela tal complejidad que la regula-
Más ardua, porque si la descripción de un sistema autopoié- cl6n por medios tradicionales vuelve a parecer casi irrisoria.
tico se aplica efectivamente a la 1A, entonces el problema es ¿Podría estar la solución en la creación de sistemas reguladores
mucho más grave: c.ualquier regulación basada en los enfoques dotados ellos mismos de una forma de inteligencia y auto-
tradicionales está condenada al fracaso, porque éstos nacieron nomía, capaces de adaptar las normas sobre la marcha, a ima-
en un contexto de regulación del comportamiento humano, gen de los sistemas que pretenden regular?
no de otros sistemas autónomos. 12 P or tanto, la regulación de- En esta búsqueda de la regulación, la esencia misma de la
bería evolucionar para hacer frente a la creciente complejidad Información, tal como la conceptualizó Luhmann -como ele-
y autonomía de la IA, en el espíritu de las teorías de Luhmann mento constitutivo de nuestros sistemas sociales-, debe reeva-
sobre la autopoiesis y la comunicación. 13 Sin embargo, es pro- luarse a la luz de la IA. Tal vez el camino hacia una regulación
bable que esto no sea completamente aplicable a la IA, dado eficaz de la IA resida en una mejor comprensión de la informa-
que el concepto de autopoiesis no abarca todas sus posibles ción en este nuevo contexto, ya no como un simple vector de
aplicaciones. Además, considerar que un sistema de 1A exhibe conocimiento, sino como el tejido constitutivo de los propios
autopoiesis en el sentido pleno del término, considerando sus sistemas autónomos.
"capacidades" y su inherente dependencia de los humanos y
sus creaciones, sería una suposición audaz. ¿Y si Luhmann tuviera razón y el verdadero reto no consis-
tiera en regulai:: la IA, sino en nuestra capacidad para compren-
Y ahí radica el dilema, en la tensión entre la necesidad de der estos nuevos sistemas de información e interactuar con
regular y la imposibilidad de definir claramente lo que hay ellos? ¿Regular la 1A no sería, en última instancia, una cuestión
que regular. de dominar la propia información, de reinventar nuestra socia-
lización en la era digital?
Aquí es donde el problema se vuelve vertiginoso. La regu-
11 /bid. N. Luhmann y S. Fuchs.
lación de la 1A, tal y como se plantea hoy en día, adolece de
12 De ahí, el concepto de gubernamentalidad de Michel Foucault que
evidencia que la regulación es, ante todo, para los comportamientos
·humanos.
¡ 14 Luhmann, Niklas, «El Modelo Sintético de Comunicación de,,. Cin-
Luhmann, N, A Sociol,ogical Theory of Law (1985) y Law As a Social
System, traducido por Klaus A. Ziegert, Oxford University Press, 2003 ta de Moebio, 47, 2013, pp. 59-73.
150 P HILIP P E P RINCE 'I'RITTO Inteligencia Artificial... 151

una falta de comprensión fundamental, y esto se pone de ma- espacios, no siempre son las personas más informadas las que
nifiesto en cuanto intentamos definirla, si es que lo hacemos. ganan visibilidad. En lugar de ello, la visibilidad en las redes so-
La IA evoluciona constantemente y no puede definirse en ciales se rige más por criterios que no necesariamente valoran
términos estáticos, por lo que cualquier intento de regulación la calidad o la precisión del conocimiento expresado. 17
siempre va un paso por detrás. Como ejemplo, el cambio de Sin embargo, la definición de IA parecía haberse resuelto,
última hora en la hoja de ruta para el acuerdo político sobre ya que la OCDE publicó recientemente con orgullo su defini-
el AJ Act, motivado por la toma de conciencia de los miembros ción actualizada, que describe la IA como:
del Parlamento Europeo sobre la IA generativa y la necesidad
de incluir en el texto regulador medidas específicas para los Un "mac hine-bas ed sys tem that for ex plic it or implic it objecti-
sistemas de inteligencia artificial general. 15 Esta dinámica crea ves, infers, from the input it r eceiv es, how to gener ate outputs
such as pr edictions, c ontent, rec ommendations , or dec is ions
un terreno fértil para los abusos. Los gigantes digitales a menu-
that may influence physical or virtual environments". 1 8
do dan forma a lc\S normas incluso antes de que los legisladores
comprendan plenamente lo que están intentando regular. 16 Solo faltaba sustituir itpor heor shepara, una vez más, consu-
Este escenario se ve también complicado por los medios de mar por completo el pecado de antropomorfismo. En efecto,
comunicación y, en particular, por las redes sociales. En estos tal definición permite eximirse parcialmente de responsabili-
dad a la hora de utilizar o diseñar sistemas de IA, ya que se
entiende que éstos tienen objetivos, palabra cargada de auto-
15 Parlamento Europeo, "Artificial lntelligence Act: Deal on Co m- nomía, generan predicciones, palabra cargada de error como
prehensive Rules for Trustworthy Al I News I European Par-
veremos más adelante, y toman decisiones, palabra que ya no
lian ient," 9 de d iciembre de 2023. https:/ / www.eu roparl.
europa.eu/ news/ en/ p ress-roo m/ 2023l 206IPR15699 / art ificial-in - parece estar en el exclusivo seno jurídico del ser humano.
telligence-act-deal-on-co mprehensive-rules-for-trustworthy-ai, últi• Esta definición confunde la distinción fundamental cono-
mo acceso el 7 de marzo de 2024.
16
cida desde el Derecho romano entre objetos jurídicos y suje-
Por ejemp lo, Céline Castets-Renard hace referencia a un caso en el
tos jurídicos. Ya no estamos preguntando a OpenAI. Estamos
que Goog le env ió un a carta a la Ad ministración Nacional de Segu -
ridad del Tráfico en Carreteras (NHTSA, por sus sig las en ing lés) preguntando a ChatGPT. Ya no es una persona la que apuñaló
en nov iembre de 2015, sug iriendo có mo interp 'retar la leg islación a otra. Es el cuchillo el que mató a la víctima. Una formu-
existente sobre la seguridad de veh ícu los para reconocer que los lación que haría erizarse a un juez penal, pero que parece
vehícu los autóno mos sin conducto r hu mano cu mp len con las nor- perfectamente aceptada en el contexto de la IA por las cuali-
mat ivas. En respuesta, la NHTSA, en febrero de 2016, aceptó en gran
med ida la perspectiv a d e Goog le, concluyendo que los s istemas de
inteligencia art ificial pueden ser cons iderados co mo «conducto res»
dentro del marco legal, s iemp re y cu ando reemp lacen la función 17
R. Galimullin y Mina Young Pedersen, "Visíbility and exploitation in
del conductor hu mano. Ver: Castets-Renard, Céline, " La voitu re au - social networks," Mathematical Structures in Computer Science, 2023.
tono me: la reg lementat ion au x Etats -Unis (The Autono mous Car: 18 OECD, "Updates to the OECD's Definitíon of an Al System Ex-
Regulations in the United States) ," La circulation des automobilistes plained - OECD.A I," 29 de noviemb re de 2023, https://oecd.ai/
en Europe, Sous la direct ion de Fabrice Pícod et Francesco Martucci, en/wonk/ai-system-<lefin ít ion-upd ate, último acceso el 7 de marzo
Bruylant, 2018, p. 12. de 2024.
152 P HILIP P E P RINCE TRITIO Inteligencia Artificial... 153

dades que se prestan a esta tecnología, difuminando fronteras La interpretación alternativa de esta difuminación de la
jurídicas fundamentales. distinción entre objeto y sujeto sería que las diversas iniciati-
vas normativas parecen crear otro tipo de res, completamente
Se creía que la cuestión había quedado zanjada cuando, en 1 mevo porque gozando de cierto g r a d_od e autonomía, y del que
2017, el Parlamento Europeo sugirió una personalidad elec- nada sabemos sobre su régimen jurídico, sus límites y la le y
trónica antes de abandonar la idea frente a la crítica. 19 Sin em- que se le aplicaría. Esto parecería un detalle, pero no lo es.
bargo, no se ha aprendido la lección, y la OCDE no es la única Este tipo de discurso introduce una distancia palpable entre lo
institución que no utiliza el lenguaje con la habilidad de un que el objeto permite hacer y de lo que el sujeto es responsa-
jurista para corregir el error. Mientras el Consejo de Europa ble , lo cual es peligroso para la seguridad jurídica de quienes
utiliza la definición de la OCDE al pie de la letra,2 º el Blueprint aufrirán los efectos negativos. Una pendiente resbaladiza hacia
estadounidense para una AJ B ill of Rights2 1 se refiere sin pesta- una presuposición de autonomía total de la que ya están sur-
ñear a la discriminación algorítmica, como si la discriminación 14iendo problemas jurídicos. Es porque el legislador es incapaz
ya no fuera el acto de una persona jurídica o física, y la Unión de adoptar una postura jurídica clara por lo que seguimos pre-
Europea en su Al Act le atribuye explícitamente "diferentes guntándonos sobre la responsabilidad de los llamados coches
niveles de autonomía" y una influencia, o capacidad según la Mautónomos" o las infracciones de la propiedad intelectual de
traducción, sobre "entornos fisicos o virtuales".22 Todo un cam- los productos resultantes del uso de los llamados sistemas "ge-
po léxico, habitualmente reservado a los sujetos de derecho, nerativos" de IA. En definitiva, la intervención de organismos
está siendo explotado por estas torpezas. que quieren gobernar la IA y que producen textos normativos
A cada paso, como veremos más adelante, trae con este burdo
clominio del lenguaje más confusión que solución, creando de
la nada problemas para los que tradicionalmente el Derecho
19 Parlamento Europeo, Resolución 2015/2103(INL) con recomendaciones l("ndría soluciones a través, por ejemplo, de la doctrina de la
destinadas a la Comisión sobre nor mas d e Derecho civil sobre robótica, Unión t rsponsabilidad por el hecho de las cosas inanimadas desarro-
Europea, 16 de febrero de 2017, https:/ /www.europarl.europa.eu/ llada por Louis Josserand.23
doceo/document/TA-8-2017-005l_ ES.html, último acceso el7 de
marzo de 2024. Incluso sin esta laguna jurídica, que un estudiante de
20 Committee on Artificial lntelligence, Draft Framewrmi Conventwn 011 ,lc•recho podría haber evitado fácilmente añadiendo unas
Artificial Intelligence, Human Rights, Democracy and the Rul,e of Law, ¡,,tlabras,24 la definición cae en otro escollo que la OCDE y·
Council o f Europe, Estrasburgo, 18 de diciembre de 2023, https:/ /
rm.coe.int/cai-2023-28-draft-framework-convention/ l 680ade043,
último acceso el 7 de marro de 2024.
21 The White House, "Blueprínt for an Al Bill of Rights I OSTP 1 Josserand, Louis, De la responsabilité dufait des choses inanimées, Librai-
the White House," s.l., 22 de noviembre de 2023, https:/ /www. rie nouvelle de droit et dejurisprudence, Paris, 1897.
whitehouse.gov /ostp/ ai-b ill-o f-rig hts/, último acceso el 7 d He aqu í una corrección que especifica exp lícitamente el papel de
marzo de 2024. las personas (fís icas o ju rídicas) en el p roceso d e in ferencia y gen-
22 Parlamento Europeo, Reglamento (UE) 2024/1689 del ParlamentoEi eración de resultados: " mach ine-based system that is used by a legal
ropeoy del Consejo de 13 de junio de 2024 por el que se establ,ece n nonnas or natural person who, for exp licit o r implicit ob jectives, in fers fro m
amwniz.adas en materia de inteligencia artificial, op.cit., art. 3. the input they receive, how to generate outputs such as predictions,
154 P HILIP P E P RINCE T'RITTO Inteligencia Artificial... 155

otras instituciones querían evitar precisamente: el de un ám- del usuario, una herramienta que responde a la intervención
bito de aplicación extremadamente vago o demasiado amplio. humana (movimiento, fuerza) y produce un resultado signifi-
El término "machine-based system" es un término general y cativo basado en objetivos implícitos y explícitos (movilidad,
no definido de forma especifica. OpenAI, mediante ChatGP T, accesibilidad), influyendo así en la interacción del usuario con
menciona que puede referirse a: el entorno. El modo en que el usuario utiliza la silla de ruedas
(entradas) y el modo en que la silla facilita el movimiento (sa-
"un conjunto de componentes interconectados que funcio- lidas) pueden considerarse un bucle continuo de acción y res-
nan juntos para realizar tareas o alcanzar objetivos específicos puesta, similar a una forma elemental de "comunicación" en-
mediante el uso de máquinas o tecnología automatizada. Este
tipo de sistema puede involucrar una variedad de elementos,
tre el usuario y la máquina. En este contexto, la "inferencia" es
incluyendo hardware físico, software, algoritmos, y a veces in- la respuesta mecánica directa a la acción humana (la mecánica
terfaces para la interacción humana."25 de las ruedas, por ejemplo, podría considerarse que "infiere" la
dirección y la velocidad en función del empuje del usuario) , y
En otras palabras, la ambigüedad del término requiere a cada movimiento puede considerarse una "decisión" facilitada
menudo una mayor especificación para aclarar el tipo de siste- por la silla de ruedas, que permite a los usuarios relacionarse
ma al que se hace referencia en un contexto concreto. En con- con su entorno físico, lo que incluso influye indirectamente en
junto, las definiciones mencionadas pueden abarcar un núme- su participación en entornos virtuales (por ejemplo, el acceso
ro impresionante de usos y productos si se adoptan los mismos a una computadora). Por tanto, este mayor acceso puede mo-
tics del lenguaje impregnado de antropomorfismo. Tomemos dificar las interacciones sociales, profesionales y digitales del
un ejemplo al azar: la silla de ruedas. usuario. En resumen, una silla de ruedas es un sistema de IA
según las definiciones actuales de las principales instituciones
La silla de ruedas puede considerarse una prolongación del
reguladoras del mundo.
cuerpo y las intenciones del usuario. Aunque no actúe de for-
ma completamente independiente, puede considerarse, desde Animamos al lector a repetir este experimento mental una
el prisma de la autonomía abordado por las instituciones re- y otra vez para comprobar que la definición es aplicable a un
guladoras, una herramienta integral que "entiende" y respon- número increíble de dispositivos. Esto incluye desde los más
de a los movimientos y deseos del usuario, desempeñando así sofisticados, como un Large Language Model, hasta los más
un papel clave en su forma de interactuar con el mundo. Una simples, como una lavadora, un semáforo o un pluviómetro.
silla de ruedas puede considerarse una extensión mecánica [ncluso, con un poco de imaginación, se podría aplicar a un
lápiz. También abarca sistemas menos evidentes, como cier-
tas organizaciones sociales (por ejemplo, fábricas, empresas
content, reco mmendat ions, o r decisions through the system, that de servicios o hospitales) y sistemas parcialmente distribuidos
may in flu ence physical or v irtual env iron ments." Esta nueva redac- como el blockchain.
ción aclara la responsabilidad y la agencia en el uso de los sistemas
deIA. Estamos a años luz de una definición fácil y cristalina, por
25 OpenAI, ChatG PT (Versión de Abril 2023) [Large language model], lo que la violación del principio de legalidad se cierne sobre
s.l., 2024, https:/ / chat.openai.com/share/e683236b-e4e6-429e- cualquier medida adoptada sobre la base de definiciones in-
bc8d-f23b2b77d960, último acceso el 7 de marzo de 2024. ternacionales de IA. En definitiva, cuando hablamos de IA, es-
156 P HILIP P E P RINCE Tlurr o /nllligtncia Artificial... 157

tamos utilizando nada más y nada menos que un término de porcionan un marco jurídico que, si se aplica correctamente,
marketing que pende del hype del momento, y que contrasta deja pocas dudas sobre la decisión correcta que hay que tomar.
con las exigencias en materia de neutralidad tecnológica que Mientras tanto, GpenAJha eliminado de su aviso legal la prohi-
precisamente permiten al Derecho la flexibilidad que el jurista bición de aplicaciones militares de sus soluciones.28 Del mismo
avezado conoce de esta herramienta social.
Ante este panorama, la pregunta en boca de todos no pa-
rece ser si debemos regular el uso de la IA, sino cómo hacerlo al operar sin supervisión humana directa, pues exige un ju icio mo-
ral fuera del alcance de las máquinas. Esta preocupación se ve re-
con eficacia. Pero, ¿es esa realmente la cuestión?
forzada por el Artículo 35.2, que prohíbe explícitamente armas y
métodos que causen sufrimientos innecesarios, un riesgo inherente
en sistemas que carecen de la capacidad para distinguir adecuada-
2. Caminos equivocados en la regulación de la 1A mente entre combatientes y no combatientes. Además, el Artículo
36 requiere una evaluación rigurosa de cualquier nueva arma para
La necesidad dí:: regular la IA, especialmente cuando están asegurar su conformidad con las leyes de guerra, un proceso que
en juego los derechos humanos, parece obvia. Sin embargo, plantea dudas significativas sobre la viabilidad de las LAWS para
el verdadero enfoque no debería ser añadir nuevas normati- cumplir con los princip ios de distinción, proporcionalidad y pre-
vas internacionales, sino explotar inteligentemente nuestros caución. Este argumento se ve apoyado por el principio de prohibi-
principios jurídicos vigentes. Tomemos el ejemplo de las ar- ción de la perfidia, en el Artícu lo 37, que podría ser infringido por
IAWS programadas para imitar co mportamientos humanos o de no
mas letales autónomas (LAl1/.S' por sus siglas en inglés): la Carta combatientes para ganar ventaja táctica, incluso si esta programa-
de las Naciones Unidas26 y los Convenios de Ginebra27 ya pro- ción no ha sido de forma explicita. La protección de la población
civil, un pilar del Protocolo I, se ve co mpro metida por la naturaleza
autónoma de las LAWS, como lo evidencian las estipulaciones del
26 La Carta de las Naciones Unid as no.men cion a exp lícit amente a las Artículo 51, que prohíbe ataques indiscriminados y aquellos que no
armas letales autóno mas, sin embargo sus prin cip ios fundamentales distinguen entre objetivos militares y civiles. Las IAWS, al no garan-
sobre la p rohib ición del uso de la fuerza (art. 2.4), el manten imien- ti zar esta distinción, podrían realizar ataques que se considerarían
to de la p az y la seguridad internacionales (art. 24), la regu lación indiscriminados según los párrafos 4 y 5 (b) del Artícu lo 51. Además,
de armamentos (art. 26), la p rotección de los derechos hu manos la obligación de tomar precauciones en los ataques, delineada en el
y las libertades fundamentales (p reámbu lo), y la solución pacífica Artículo 57, presenta un desafío insuperable para las LAWS, dado
de controversias (art. 33) pueden interpretarse co mo argu mentos que la evaluación proporcional y la min imización del daño a civiles
sólidos en contra d el desarro llo , despliegue y uso de estas armas, y bienes civiles requiere un juicio humano que las LAWS no poseen.
pues serían contrarios a los valo res y ob jet ivos establecidos po r la Ver: Oficina del Alto Co misionado de las Naciones Unidas para los
Carta de las Naciones Unidas. Ver: Naciones Unidas, Carta de las Na- Derechos Humanos, Protocol.o Adicional al.os Convenios de Gine!Tra del
cion es Unidas, San Francisco, 1945, https:// www.un .org/es/about- 12 de agosto de 1949, relativo a la Protección de las Víctimas de /,os Conflic-
us/un-charter/full-text , último acceso el 9 de marzo de 2024. tos Armados Internacional,es (Protocolo 1), Ginebra, 1977, https://
27 El Art ícu lo 35 del Protoco lo I ad icional a los Conven ios de Gineb ra www.ohchr.org/es/instruments-mechanisms/instruments/proto-
de 1949 establece claramente que la elección de métodos y medios col-additional-geneva-conventions-12-august-1949-and-0, último ac-
de guerra no es ilimitada, lo que imp lica una restricción significativa ceso el 9 de marzo de 2024.
28 González, Femanda, "OpenAI Autoriza El Uso De Sus Sistemas De
sobre el uso de tecnolog ías que pod rían causar daños desproporcio -
nados o sufrimientos innecesarios, como podrían hacerlo las LAWS IA Para Fines Militares," WIRED, 15 de enero de 2024, https:/ /es-
158 P HILIP P E P RINCE TR.rrro Inteligencia Artificial... 159

modo, el principio de cautela y la protección de la libertad de ¿no debería el arte de la regulación consistir en esculpir con
pensamiento pueden invocarse para legislar contra la elabora- delicadeza en lugar de amontonar con peso?
ción excesiva de perfiles por parte de la IA, sin necesidad de Precisamente ante la inflación normativa acecha el espec-
una nueva legislación. tro de la sobrerregulación. La base de datos de la OCDE so-
El acercamiento al problema digital no debe limitarse a bre National Al Polícies & Strategi,es revela que en un periodo
un marco jurídico rígido, sino que debe considerar una apli- de 10 años, de 2012 a 2022, se han puesto en marcha en todo
cación dinámica y contextual del Derecho. Ha quedado de- el mundo nada menos que 1,514 iniciativas de gobernanza
mostrado en varias ocasiones que nuestro Derecho es una de la IA.30 La OCDE las clasifica en 25 tipos diferentes que
herramienta que puede adaptarse a nuevas situaciones sin reflejan una gama diversa de enfoques e instrumentos políti-
necesidad de publicar nueva reglamentación; sin embargo, cos utilizados en todo el mundo para enmarcar el desarrollo
requiere un conocimiento profundo de las tecnologías impli- y el uso de la IA. Si nos centramos únicamente en el tipo de
cadas, de sus implicaciones para la sociedad y, sobre todo, de Emergi,ng Al-related regulation, existen 195 iniciativas que se han
los principios jurídicos existentes. Si bien la necesidad de una puesto en marcha de 2015 (más de una cada quince días), y
normativa evolutiva capaz de adaptarse al rápido progreso de 40 han entrado en vigor desde 2016 (casi una cada dos me-
la IA ha sido subrayada por numerosos expertos desde hace ses). Una simple regresión lineal aplicada a los datos muestra
décadas,29 nuestras regulaciones todavía no se han adaptado una tendencia en la adopción de iniciativas políticas de IA
cuando la IA está en la ecuación. No hay razón para pensar que elevaría a 228 el número de iniciativas que se espera ha-
que nuevas normas concebidas según el mismo modus operandi yan entrado en vigor en 2050. Por supuesto, esta tendencia
vayan a tener más éxito. no es una predicción: se basa en la observación histórica y
no tiene en cuenta posibles cambios futuros en las políticas,
El diálogo entre tecnólogos y juristas es, por tanto, esencial, la tecnología o las prioridades mundiales. Pero la cifra pue-
para garantizar que las normas existentes se interpreten a la de ser sólo ligeramente exagerada si se tiene en cuenta que,
luz de los retos que plantea la IA. De este modo, el derecho como resultado de la adopción del Reglamento de la UE so-
puede seguir siendo pertinente y eficaz sin hundirse en la infla- bre IA, la Comisión Europea tendrá que iniciar al menos 20
ción legislativa, que a menudo es contraproducente. En efecto, actos delegados y crear una oficina de IA.31
Cada nueva medida o normativa se suma a una ya vasta
.wired.co m/ art iculos/ openai-autoriza -el-uso-de-sus-sistemas-de-ia- montaña de regulaciones, lo que hace que estas sean menos
para-fines-militares, último acceso el 11 de marzo de 2024.
29 Desde Norbert Wiener y la Cibernética en los años 1950, hasta las
Directrices de la OCDE para la Protección de la Privacidad y los
&O OECD.AI (2021), powered byEC/ OECD (2021), databaseofnatíonal
Flu jos Transfronterizos de Datos Personales en 1980, se abordaron
los desafíos de regular la tecnología y la información en un entorno Al policies, ultimo acceso el 15 de febrero de 2024, https:/ /oecd.ai.
&l Parlamento Europeo, R.egl.amento (UE) 2024/1689 del Parlamento Eu-
en rápida evolución. Norbert, Wiener, Human Use of Human Beings,
Doubleday & Co mpany, s.1., 1954; OECD, OECD Guidelines on thel'r<r ropeo y del Consejo de 13 de junio de 2024 por el que se establecen normas
tection of Privacy and Transborder Fwws of PersonalData, OECD Publish- armonizadas en materia de inteligencia artificial, op. cit., considerando
ing, Paris, 2002. 3, 60e, 85, art. 6(2d), 7(1), 7(2a), 11(3), 43(5), 43(6), 48(5).
160 P HILIP P E P RINCE TRITI O Inteligencia Artificial... 161

claras y previsibles, alimentando la incertidumbre en lugar de vida, que sufrimos más que ayer y menos que mañana. Aunque
proporcionar claridad y contribuyendo a un fenómeno de hi- estos temas están infrarrepresentados en los debates éticos so-
perespecialización del Derecho, y de la abogacía. 32 bre la IA, cuando se abordan, aparecen mal representados. Así
Tanto más cuanto que lo que subyace en esta inflación re- pues, los miembros de la UNESCO, a pesar de mencionarlos,
glamentaria es un arma de doble filo. Se trata de proteger los depositan esperanzas considerables en los sistemas de IA para
derechos humanos sin obstaculizar la innovación,33 una fórmu- resolver estos problemas.3 4 Hay que recordar que estos proble-
la prefabricada que se encuentra con frecuencia en artículos mas están directamente relacionados con las leyes de la física,
de prensa, conferencias sobre el tema y debates sobre regula- y concretamente los principios de la termodinámica, que rigen
ción. Nunca se plantea la cuestión de si este equilibrio es po- la energía de que disponemos y, así, el impacto medioambien-
sible, y mucho menos deseable. P orque este culto a la innova- tal de ponerla a disposición de las actividades humanas. 35
ción encierra en sí mismo un entusiasmo por la eficacia de la ¿Tienen razón estos países al creer que la IA puede salvarnos
IA que oculta una contradicción fundamental: la promesa de en este ámbito? Al fin y al cabo, con la IA, la "mejora" reside en
inmensos beneficios choca con las leyes de la naturaleza y la una mayor eficiencia. Estamos desarrollando algoritmos que
realidad de los principios a los que se supone que sirve. Ilustra- requieren menos potencia de cálculo para ofrecer resultados
remos este punto examinando los objetivos prestados a la IA, más precisos, sistemas de automatización que necesitan menos
en primer lugar desde el punto de vista del impacto ecológico energía para realizar las mismas tareas o redes neuronales más
y social que se supone que estas técnicas deben reducir, y en optimizadas que procesan más datos sin aumentar su huella
segundo lugar examinando lo que queda por poner en la ba- energética. Si esa eficiencia existe, debería calar en toda la eco-
lanza beneficio-riesgo. nomía, permitiendo mantener o aumentar la producción de
En primer lugar,_en el tema de la ecología, sin duda se idea- bienes y servicios al tiempo que se reduce el consumo de ener-
liza la IA pensando que estas tecnologías están al servicio del gía necesario. Sólo hace falta paciencia..
problema más espinoso al que se enfrenta nuestra sociedad: la En consecuencia, la eficiencia energética de la economía,
brecha energética, el cambio climático y la desaparición de la gracias al uso de la IA, debería lógicamente mejorar en los paí-
1es que han adoptado más sistemas de IA, al menos desde 2012
y el auge de la inversión en este sector.36 En teoría, la cantidad
32 Oldfath er, Chad M, "Judg ing , expertise, and the ru le o f law," Wash.
ill,Rev, 89, 2011, p. 847.
33 Generalmente, en inglés, se copia y pega el famoso lema "regulate
Al without stifling innovation". Ver, por ejemplo : World Econo mic M UNESCO , R.ecomendación solrre l.a ética de /,a inteligencia artificial ada-pta-
Foru m, "How To Regulate A l W ithout Stifling Innovation", s.1., 6 da el 23 de noviemb re de 2021, op. cit., p. 19, §17
de junio de 2023, https:/ /www.wefo ru m.org/agenda/2023/06/ u Jancovici,J-M, "Le ministre et (l'oubli de) la regle de trois", D<mnez
how-to-regulate-ai-without-stifling-innovation/, último acceso el 12 TranquiUesjusqu'en 2100, OdileJacob (Versión para Kindle), París,
de marzo de 2024; UNESCO, Recomendación sobre l.a ética de /,a inte- 2015, Capítulo 11.
ligencia artificial adoptada el 23 de 1WViembre de 2021, Francia, 2022, i• Uno de-los puntos de in flexión más notab les en la adopción y el
, • https://unesdoc.unesco.o rg/ark:/ 48223/p f0000381137_spa.lo - desarro llo de la IA se p rodu jo en to mo a 2012, con el éxito de A lex-
cale=es, último acceso el 12 de marzo de 2024, Preámbulo, p. 5. Net, una red neuronal convolucional, en el desafio ImageNet. Este
P HILIP P E P RINCE 'TRITTO Inteligencia Artificial... 163
162

de energía primaria necesaria para generar un dólar de PIB neta. Por lo tanto, es difícil justificar los centros de datos que
debería disminuir. En otras palabras, si suponemos que el pro- consumen mucha energía y las infraestructuras informáticas
greso, encarnado aquí por la IA, hace que los procesosy las intensivas necesarias para entrenar los modelos de IA, que
personas sean más eficientes, y que este progreso se acelera se convertirían entonces en una amenaza pura y simple para
con el tiempo, deberíamos ver una mejora significativa de la nuestra supervivencia.
eficiencia energética desde 2012 en todos los países con datos Sin embargo, algunos argumentarán que la democratiza-
estadísticos y mayor adopción de sistemas de IA. ción de la IA generativa a gran escala, en particular desde no-
Mala suerte, no se puede observar ninguna ruptura ni ace- viembre de 2022,38 marca un hito significativo en la adopción
leración notable, ya sea en Estados Unidos, China, Francia, y aplicación de la IA en diversos sectores que no se mide en el
el Reino Unido, Alemania, Corea del Sur, Japón o India, por periodo que cubrimos anteriormente.
nombrar solo algunos países. Tampoco nada a nivel mundial. No obstante, conviene subrayar que esta reciente adopción
La curva de efici<mcia energética del PIB aumenta de forma no pone en tela de juicio el análisis inicial, sino que aboga por
generalmente lineal, pero el indicador no parece haberse vis- una reevaluación continua del impacto de la IA a medida que
to impulsado en absoluto durante el periodo 2012-2020 por evoluciona. ·
los supuestos beneficios anunciados, a saber, la extraordinaria
Es más, la creciente adopción de la IA generativa está plan-
y exponencial eficiencia de la IA.37 Así pues, según los datos
teando nuevas cuestiones sobre su huella energética, sobre
examinados, no se observa la esperada contribución de la IA
todo cuando se trata de entrenar y ejecutar modelos cada vez
para resolver nuestros problemas de supervivencia en este pla-
más sofisticados y que consumen muchos recursos. Es asom-
broso comprender el impacto energético de una única con-
1ulta C'llviada a openAI mediante ChatGPT 3. 5. Sin contar la
éxito d emostró la eficacia d el ap rend izaje p rofundo para tareas d e t"nergía usada para entrenar el modelo, el consumo equivale
visión por co mputado ra, lo que p rovocó un au mento mas ivo del al necesario para mantener encendida una bombilla LED de
interésy la inversión en IA. Desde entonces, la adop ción de la IA 5 W durante 15 minutos.39 A esto se añade el consumo de los
no ha dejado de crecer en d iversos sectores, co mo la med icina, las
finan zaso el t ransporte, ent re otros. Ver: Brian Ch ristian , TheAlign- dispositivos y equipamiento involucrados en la consulta, como
ment Prob/,em, W. W. Norton & Company, Kindle Edition, NewYork,
2020, Capítulo 1, "The Story of Alexnet".
37 Los datos ut ilizados para calcular el índ ice pro ceden d el BPStat isú-
cal Review of World Energy for Primary Energy Consumption (BP,
" J. Pav lik, " Co llabo rat ing W ith Ch at GPT: Considering the Imp lica-
tions o f Generat ive Art ificial Int elligen ce forJourn alis m and M ed ia
«Stat istical Rev iew o f Wo rld Energy fo r Primary Energy Consu mp -
Education," Journalism & Mass Communicatioñ Educatar, 78, 2023,
tion,» ú lt imo acceso el 13 de marzo de 2024, https://data .subak.
pp. 84- 93, https:/ /doi.org/10.1177/ 10776958221149577.
org/dataset/bp-statist ical-rev iew-o f-world -energy/ resou rce/ 3a075
3f8-7ebe-450c-95d 9-4625a62b 7fcd?inner_span =True) y de la base 1g El calcu lo se realiza con los d atos de Zodhya, co rrig iendo lo que se
de datos del Banco Mund ial para el PIB (Banco Mundial,« GDP menciona en-el art ícu lo , pues el auto r to ma en cuenta la energ ía ne-
( current US$),» World Develop ment Ind icators, ú lt imo acceso el13 cesaria para el ent renamiento d e ChatGP T 3.5, y nosotros la exclu i-
de marzo de 2024, https://data.worldbank.org/ ind icato r/ NY.GD P. mos. Ver: Zodhya, "How Much Energy Does ChatGPT Consume?
- Zodhya- Medium", Medíum, 19 de mayo de 2023, última consulta
MKTP.CD).
164 P HILIP P E P RINCE TRITTO Inteligencia Artificial... 165

computadoras, equipos de red y sitios web intermediarios, in tecnologías de 1A para resolver los problemas medioambienta-
cluidos motores de búsqueda. Además, no debemos olvida, les, los datos disponibles no muestran una ruptura significativa
el impacto ambiental derivado de la fabricación, transporte• en las tendencias de eficiencia energética que pueda atribuirse
y mantenimiento de estos equipos. P or lo tanto, es esencial directamente ala adopción y aplicación de la 1A desde 2012.
analizar críticamente no sólo las posibles aplicaciones de la IA
Pero; claro, ¡habrá quienes argumenten que los beneficios
para mejorar la eficiencia energética, sino también los coste s de la 1A deberían trascender las "simples" consideraciones eco-
energéticos inherentes a su desarrollo e implantación. lógicas y económicas! Al fin y al cabo, la 1A nos promete una
A pesar de las limitaciones inherentes al uso del indicador vida en general menos ardua al sustituir nuestras tareas más
de eficiencia energética del P IB y de otras consideraciones que repetitivas y mejorar nuestra comodidad y acceso a la cultura,
pueden relativizar nuestras constataciones,40 es crucial reco- donde el único trabajo de los humanos será decidir qué serie
nocer que el análisis preliminar presentado más arriba es un ver a continuación eligiendo entre las recomendaciones de Net-
punto de partida significativo para una hipótesis que parece flix. Sin embargo, como en el caso de la eficiencia energética
válida a primera vista. Una interpretación estricta del principio del PIB, si tomamos el "Índice de Desarrollo Humano" 41 y el
de precaución debería ordenamos detenerlo todo hasta que "Índice de Desarrollo Humano Aumentado" 42 podemos ver
se resuelva la cuestión. Esta hipótesis sugiere que, a pesar de que no muestran en absoluto una ruptura en el crecimiento
las grandes expectativas depositadas por las instituciones en las progresivo durante el periodo 2012 a 2021. P or lo t anto, no
hay nada que pueda correlacionarse con la adopción de la IA, y
desde luego no es la robotización de los almacenes de Amazon,
convirtiendo a los seres humanos en piezas de recambio orgáni-
el 14 de marzo de 2024, https:// med iu m.co m/ @zodhyatech/ho w- cas, lo que está contribuyendo al aumento de estos indicadores.
much-energy-does-chatgpt-consume-4cbala7aef85.
40 Nuestras constataciones, lejos de ser unas conclusiones defin it ivas, Llega entonces el momento de aplicar el clásico balance
exigen un an ális is más p rofundo y mu lt id imensional del impacto de beneficio-riesgo, entendiendo que cualquier decisión requiere
la 1A en el med io amb iente. Es fund amental mat izar, reconociendo que el primero se vea claramente superior al segundo. Si torna-
primero qu e ausencia de co rrelación no sign ifica ausencia de cau- mos uno de los primeros textos sobre ética de la 1A, que data de
salid ad en el prog reso lin eal de la eficiencia energét ica, y segundo
2019 y ha sido publicado por el IEEE, podemos intenta alcan-
las limitaciones del ind icado r de eficiencia energ ética del PIB, que
no recoge específicament e el impacto de la IA. Además, hay que zar este famoso equilibrio leyendo el objetivo del documento:
tener en cuenta el pos ib le efecto rebote, en el que el au mento de
la eficiencia pu ede d ar lugar a un mayor consu mo de energ ía, así
como el consumo directo asociado a las infraestructuras de la IA.
41 United Nations, "Human Development Index," Human Development
Se necesita un en foque ho lístico y sectorial para captar con mayo r
precisión las contribuciones reales y potenciales de la 1A a la sosteni- Repurts. s.1., s.f., https://hdr.undp.org/data-center/human-develop-
bilidad med ioambiental, examinando otros ind icadores relevantes ment-index#/indicies/HDI, ult imo acceso el 14 de marzo de 2024.
que podrían p roporcionar una v is ión más co mp leta d el imp acto 411
Our World In Data, "Augmented Human Development lndex," Our
med ioamb iental de la IA, incluyendo consideraciones relacionadas World In Data, s.l., 2021, https://ourworldindata.org/grapher/aug-
con el consu mo de recu rsos, las emis iones de g ases de efecto inver- mented -hu man-dev elop ment -index, u ltimo acceso el 1 4 d e marzo
nadero y la sostenibilidad de las propias tecnologías. de 2024.
166 P HILIP P E P RINCE 'Tu.ITTO lnteligtmcia Artifi,cial.. , 167

"Autonomous and intelligent technical systems are specifically que es dificil ver qué queda en el lado "beneficios" de la balan-
designed to reduce the necessity for human intervention in our
day-to-day lives. In so doing, these new systems are also raísing
za, y parece que este principio crucial, aunque infravalorado,
concerns about their impact on individuals and societies. Cur- de human agency and ov ersight merece una mayor atención, es-
rent discussions include advocacy for a positive impact, such as pecialmente en una época en la que la tecnología moldea cada
optimization of processes and resource usage, more informed vez más nuestra vida cotidiana.
planning and decisions, and recognition of useful patterns in big
data. Discussions also include war nings about potential harm to No estamos diciendo que el uso de técnicas de IA nunca
privacy, discrimination, loss of skills, adverse economic impacts, pueda ser beneficioso. Sin embargo, los casos realmente be-
risks to security of critica! infrastructure, and possible negative neficiosos, aquellos que destacan por un aumento significativo
long-term effects on societal well-being. 1143
de la eficiencia considerada tan importante, son raros. Espe-
cialmente cuando se tienen en cuenta los desaffos actuales,
No hace falta mencionar los riesgos, pues son tan explícitos
y, sin embargo, en nuestra opinión, se subestiman. Pero, ¿cuá- como la brecha energética mencionada anteriormente. Estos
ejemplos positivos quedan marginados en las discusiones más
les son los beneficios? Según el documento, la reducción de
preocupantes sobre la IA.
la intervención humana en nuestra vida cotidiana.4 4 Tomemos
conciencia: uno de los objetivos fundamentales de la IA con- En consecuencia, si la implantación de sistemas de IA se
tradice directamente uno de los principios más citados en ética centra sobre todo en la reducción pura y simple de nuestro
de la IA, a saber: human agency and oversight. 45 Si el objetivo impacto individual en el mundo, transfiriéndolo a sistemas de
mismo del desarrollo de sistemas de IA es reducir nuestra in- alto consumo energético controlados por empresas y gobier-
tervención, cabe preguntarse si esto es realmente un beneficio. nos, entonces esta lógica debe ser imperativamente cuestiona-
Reducir- la intervención humana también significa cuestionar da por las instituciones democráticas. Se trata de un ejercicio
nuestro lugar en el centro de los procesos de toma de deci- que nunca se lleva a cabo y que, sin embargo, es la trama mis-
siones, e incluso simplemente nuestra condición humana. Así ma de lo que se pretende regular: un cambio vertiginoso de
nuestro lugar como mujeres y hombres en la sociedad, ame-
nazado por lógicas de dudosa eficiencia cuyas propias institu-
43 IEEE, " Ethically aligned design. A Vision for Prioritizing Hu man ciones, al estar formadas por individuos cuyos sentidos están
Well-being with Autonomous and Intelligent Systems", The IEEE moldeados por la información ambiental, están demasiado im-
Gwbal Initiative on Ethics of Autonomous and Intelligent Systems, The pregnadas para cuestionarlas o darse cuenta de ellas. Hemos
IEEE Global Initiative, s.l., 2019, p. 3. olvidado que la verdadera eficiencia reside en la capacidad de
44 No se t rata de un a s imp lificación excesiv a n i d e un acto de selec- decir "No." a las innovaciones tecnológicas si no apoyan un res-
ción. Este objet ivo se encuentra, de fo rma más o menos explícita, en peto sin concesiones a la dignidad humana, de la que nuestra
todas las estrategias nacionales de IA existentes.
45
supervivencia y autonomía -nuestra verdadera autonomía- son
Aunque se incluye el princip io en inglés para mayor claridad, el
emanaciones cardinales.
principio en español esta traducido en ciertos documentos como
"Supervisión y Decisión humana", o "Acción y Superv isión huma- En todo, los legisladores parecen perdidos, olvidando lo
nas". Ver por ejemplo : Grupo Independiente de Expertos de Alto
que realmente importa para la humanidad debido a consi-
Nivel sobre Inteligencia Artificial, Directrices Éticas para una JA Fiab/,e,
Comisión Europea, s.l., 2019, p.18 (58). ' deracio es políticas enfocadas en el crecimiento económico.
168 P HILIP P E P RINCE TRITI O [nttligrncia Artificial... 169

Están desconectados de la comprensión fundamental de la Derecho, con la modificación de las distintas normas especí-
naturaleza humana y del mundo natural, el cual sigue leyes ficas, de forma inteligente, para que se adapten a los cambios
inalterables. La aritmética, por desgracia, no se puede ignorar, provocados por los actores de la IA. La alternativa es simple-
y las opiniones partidistas tienen poco peso frente a los hechos mente construir un andamiaje precario alrededor de una torre
del "progreso" técnico. Este problema nos lleva directamente a ya tambaleante. Pero una ética de la 1A de talla única no es
otra dimensión crítica que emana del aspecto político de la IA: posible, y puede que ni siquiera sea deseable. Durante siglos,
la imposibilidad de alcanzar un consenso reglamentario mun- e incluso milenios, ha sido un desafío constante demostrar de
dial debido a la diversidad y complejidad de las aplicaciones manera concluyente que la universalidad constituye un com-
de la IA. ponente esencial del derecho. Específicamente en el ámbito
de los derechos humanos, la aspiración a la universalidad se
presenta más como un ideal a alcanzar que como una propie-
3. La Ilusión del Consenso Normativo dad inherente a estos derechos. Ante esto, surge la pregunta:
¿Es realista esperar que en la actualidad logremos establecer
Detrás de la ubicuidad de la 1A se esconde una verdad in-
una universalidad que abarque tanto aspectos éticos como téc-
cómoda: la armonía normativa mundial en torno a la 1A es
nicos? La certeza en tomo a este objetivo parece ser, por el
una quimera. En un mundo en el que cada avance tecnológi-
momento, altamente elusiva.
co es aplaudido por su ingenio, la cuestión de la regulación
sigue sin resolverse, como una compleja ecuación sin solu- Tomemos un ejemplo para ilustrar nuestro punto de vis-
ción única. ta: el caso del reconocimiento facial, una aplicación concre-
ta de la IA. En algunos países, esta tecnología es elogiada por
· Los usos posibles de la 1A son tan variados que resulta sen-
su contribución a la seguridad pública y a la lucha contra la
cillamente imposible anticipar un acuerdo unánime entre to-
delincuencia. Cámaras equipadas con software de reconoci-
dos los países del mundo en cada aspecto relacionado. ¿Cómo
miento facial recorren calles, aeropuertos y estaciones de tren,
aplaudir entonces una visión de la regulación de la 1A que bus-
proporcionando vigilancia en tiempo real y la capacidad de
J
que el consenso de todos los países en temas tan variados como
localizar rápidamente a las personas en caso de incidente. En
la economía, la medicina, las finanzas públicas, la justicia, la
China hay una cámara por cada 2.4 personas.46 Sus partidarios
igualdad, el uso de las fuerzas armadas, la salud mental, la agri-
consideran que se trata de una poderosa herramienta para la
cultura, el marketing, la inversión, el periodismo o la ecología,
seguridad pública. En cambio, otros países ven en el reconoci-
por citar sólo algunos donde podemos aplicar técnicas de IA?
miento facial una amenaza directa a la privacidad y las liberta-
Sin embargo, esto es lo que pretenden hacer los textos sobre
des individuales. Los críticos señalan el riesgo de vigilancia ma-
el tema de la 1A, al intentar comprimir en un único instrumen-
to jurídico normas tan generales que carecen de sentido. La
enunciación de principios amplios se interpretará en un espa-
cio tan vasto que, si realmente queremos controlar los efectos 46 Wang, Vmcent Ni And Yitsing , "Ho w to "d isappear" on Happ in ess
nocivos de la 1A, no es un barniz jurídico de adorno lo que Avenue in Beijing," BBC, 24 de nov iembre de 2020, https:// www.
necesita la humanidad, sino una revisión en profundidad del bbc.co m/news/technólogy-55053978, u ltimo acceso el 14 de marzo
de 2024.
170 PHILIPPE PRINCE lluTTO Inteligencia Artificial... 171

siva, vulneración de derechos fundamentales, discriminación y Esto nos trae a la memoria la perspicaz advertencia de Jac-
abusos.47 En estos países, el uso del reconocimiento facial en ques Ellul que desmontó la idea recibida de la neutralidad de
espacios públicos está severamente restringido o incluso prohi- la tecnología, revelando cómo ésta, lejos de ser una simple he-
bido, lo que refleja una concepción radicalmente distinta del rramienta, moldea insidiosamente nuestras sociedades. 48 La
equilibrio entre seguridad y libertad individual. Y la pregunta [A, por su propia naturaleza, no es una excepción a esta regla.
es: ¿cómo pue de la inclusión de principios en un instrumento No es un simple cuchillo en manos de la humanidad, sino un
regulador de la IA ofrecer realmente una garantía a una u otra tejido conectivo que redefine nuestras percepciones, nuestras
parte de forma universal? opciones y nuestras libertades.
De hecho, la instrumentalización de principios generales El paso a una regulación basada en el riesgo se presenta
en la regulación de la IA, como los de la Recomendación de a veces como una solución para contrarrestar las limitaciones
la UNESCO sobre la Ética de la IA y otros instrumentos de de un enfoque basado en principios, al centrarse en la identi-
gobernanza basaqos en principios, plantea cuestiones funda- ficación y mitigación de los riesgos específicos asociados a las
mentales en cuanto a su aplicación concreta y universal. Cada diferentes aplicaciones de la IA. Sin embargo, la evaluación de
principio, aunque noble en su esencia, puede interpretarse riesgos en el contexto de la IA es extremadamente c ompleja,
y aplicarse de forma que favorezca intereses divergentes. El debido a la materia en la que se aplican las técnicas, a la natura-
principio de P roportionality and Do No Harm puede ser invo- leza a menudo opaca de los algoritmos de IA, a su diseño para
cado para justificar el aumento de la vigilancia en nombre "aprender" y evolucionar con el tiempo, y a la interconexión
de la seguridad pública por una parte, mientras que la otra entre diferentes sistemas de IA que puede dar lugar a compor-
podría utilizarlo para limitar el us o de tecnologías intrusi- tamientos impredecibles y riesgos emergentes.
vas, argúmentando que la invasión de la privacidad supera
Para afrontar estos retos con eficacia, primero habría que
los beneficios en materia de seguridad. Del mismo modo, el replantearse los métodos de evaluación de riesgos. Los enfo-
principio de Safety and Security podría invocarse para prevenir ques actuales más sofisticados pretenden tener en cuenta no
c;iberataques y fallos técnicos, o para destacar los riesgos de la sólo la naturaleza de los valores en juego, sino también el al-
vigilancia y el control, argumentando a favor de restricciones cance, la gravedad y la duración del impacto potencial de la
estrictas para proteger la libertad individual. La misma inter- IA sobre esos valores. 49 Esto implica incorporar dimensiones
pretación antípoda puede hacerse de los otros ocho princi- como el alcance del impacto (individual, local, nacional o in-
pios contenidos en la Recomendación de la UNESCO. P or ternacional), la profundidad del impacto (por ejemplo, desde
tanto, la introducción de estos principios no levanta el velo la invasión de la intimidad hasta la pérdida de vidas) y la dura-
sobre una IA beneficiosa o incluso neutra. ción del impacto (temporal, a largo plazo o irreversible). De la

48 Jacques Ellul, Le BluffTechnolo[Mue, Pluriel, París, 1988, p. 89.


47 EFF, "Facial Recogn ition" , Ekctronic Frontier Foundation, s.l., 2019, 49 Por ejemp lo, ver: ISO/IEC. 2023. Infarmation rechnology - Artificial
https:/ /www.efI.o rg/docu ment/facial-recogn it ion , u ltimo acceso el inrelligence - Guidance on risk management. ISO/IEC 23894:2023. Ge-
14 de marzo de 2024. neva, Switzerland: International Organization for Standardization.
172 P HILIP P E P RINCE ThIITO Inteligencia Artificial...
173

complejidad anterior ya se desprende que, si bien el reconoci- Ya sea que se actúe con fe en este terreno o no, esto in-
miento del concepto de riesgo parece universal, su evaluación troduce otras preocupaciones, mostrando que la implemen-
dista mucho de ser uniforme. tación de tal sistema de evaluación de riesgos no está exenta
Pero una evaluación en el contexto de la IA no se detiene de desventajas. La complejidad de un sistema de evaluación
ahí. Es crucial reconocer la interdependencia de los valores y multicriterio va mucho más allá de lo que puede visualizarse
principios,50 donde un ataque a un valor considerado como en una simple matriz bidimensional y requeriría el desarrollo
individual, como la privacidad, puede repercutir en valores de un software específico para gestionar todas estas dimensio-
sociales, como la democracia. También es esencial la adap- nes de forma coherente. De pronto nos damos cuenta de que,
tabilidad de la evaluación de riesgos, teniendo en cuenta el en muchas ocasiones, la herramienta de evaluación se volve-
contexto de uso de la IA (tiempo de paz, conflicto o aplica- ría más compleja que la que se pretende evaluar,y estaría
ción de la ley), así como la capacidad de control humano sujetaa sesgos e interpretaciones políticas. Además, el hecho
sobre los sistemas de IA y su nivel de sofisticación tecnológi- de que la evaluación del riesgo la realicen los interesados, en
ca. La integración de la probabilidad de que se produzcan el contexto de la autorregulación, atomiza los métodosy las
riesgos y la gravedad de sus consecuencias es un elemento interpretaciones que·se movilizarán, y una vez más caemos
clásico de la evaluación de riesgos que sigue siendo pertinen- en el mismo escollo que con la regulación basada en princi-
te en el contexto de la IA, pero para que esta evaluación de pios, donde todo será justificable para quien esté dispuestoa
riesgos sea operativa, sería esencial desarrollar un sistema de instrumentalizar tal o cual variable que permita la evaluación
del riesgo.
evaluación multicriterio que pudiera tener en cuenta todos
estos elementos de forma coherente. Un sistema de este tipo Por tanto, la regulación basada en el riesgo, como en el caso
permitiría clasificar los riesgos de forma multidimensional y del Al Act de la Unión Europea, no elimina el problema. El
adaptable, ofreciendo una evaluación precisa y contextual de AJ Act, empleando una simplificación extrema del problema,
los riesgos asociados a las distintas aplicaciones de la IA. P or prevé cuatro niveles de riesgo y una categoría sui generis que
ejemplo, un riesgo con un impacto amplio y profundo en va- aplica a los general-purpose AJ models. el "riesgo sistémico". 52 A
lores prioritarios podría clasificarse como inaceptable, mien- cada nivel se asocian obligaciones específicas, en función del
tras que un riesgo con un impacto menor y más localizado en papel desempeñado en el ciclo de vid3: del sistema de IA. Por
valores individuales podría considerarse bajo o insignifican- lo tanto, el análisis descrito anteriormente aplica, señalando
te. ¿Quién se ofrecerá voluntario para clasificar estos valores? los límites de esta normativa. También hay que señalar que su
Aparentemente la ONU, que en su Informe provisional habla ámbito de aplicación sigue restringido a las actividades eco-
de este enfoque. 51 nómicas, en consonancia con los objetivos de la UE, que han

50 Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia ultimo acceso el 14 de marzo de 2024. p. 6, (11)
Artificial, op. cit., p.18 (58). 82
51
Parlamento Europeo, Regf,amento (VE) 2024/1689<klParlamentoEuropeo
Al Advisory Body, Interim R.eport: Governing Al far Humanity, Naciones y <kl Consejo de 13 <k junio <k 2024 pur el q'IU! se estohl.ecen normas amumiza-
Unidas, s.l., diciembre de 2023, www.un.org/en/ai-advisory-body,
das en materia de inteligencia artificia op. cit., art. 51, 52, 53(2), 55.
174 P HILIP P E P RINCE TlUTTO Inteligencia Artificial... 175

pasado gradualmente de hacer hincapié en el mantenimiento la sociedad. La proliferación de leyes y reglamentos no bas-
de la paz al establecimiento de un mercado único. P or lo tanto, tará para proporcionar un marco a una tecnología que está
la regulación basada en el riesgo no contemplará, en ningún remodelando profundamente nuestras vidas y estimulando la
caso, muchas de las actividades regias del Estado, como la 1A lógica del consumerismo a una escala nunca vista en la histo-
militar,53 en la que el uso de la 1A sigue siendo poco o nada ria de la humanidad.
restringido en la práctica. Aquí es donde el debate se amplía, tocando cuestiones so-
Frente a las realidades que acabamos de exponer, el en- ciales fundamentales sobre el modelo de sociedad que queremos.
foque regulador tradicional parece bastante anticuado. La Parece difícil insistir lo suficiente en este punto, porque todo
1A se regula del mismo modo que los vehículos o los medi- está ocurriendo como si este modelo hubiera sido adoptado y
camentos, una simplificación que ignora la magnitud de su aprobado de antemano. Mientras que la omnipresencia de la
impacto. Sin embargo, nos encontramos en los albores de un IA, a menudo impulsada por gigantes tecnológicos cuyo mode-
cambio de paradigma, en el sentido de Thomas Kuhn, en el lo de negocio se basa a menudo en la publicidad y la digitaliza-
que los métodos convencionales de regulación se enfrentan ción de nuestras vidas, en última instancia no fue solicitada por
a la complejidad y ubicuidad de la 1A en todas las esferasd nadie. Esto debería hacernos reflexionar sobre el monopolio
la sociedad. de la lógica reguladora actual. ¿Estamos abordando el proble-
ma en el nivel adecuado de poder, en el nivel adecuado de la
Esta constatación nos lleva a cuestionar la pertinencia de famosa pirámide de normas de Kelsen? ¿Son uno o varios actos
nuestro arsenal reglamentario. Sólo pensar en lo que supon• de regulación la solución, o la solución se encuentra en un
dría "prohibir la IA" o incluso bloquearla en determinados nivel más fundamental, quizás en un enfoque de la IA·basado
sectores, si fuera necesario, demuestra que nuestros dirige n•
rn enmarcar una nueva forma de poder como vector de cam-
tes ya han perdido el control de la tecnología: sería absoluta-
bio social? Esta cuestión queda fuera del debate, literalmente,
mente imposible tomar una decisión así en el estado actual
1·uando las mentes, por brillantes que sean, se encierran en
de las cosas. La propia prohibición parece no tener sentido al
una lógica de producción de normas reguladoras internacio-
considerar el objeto "IA". La tecnología no tiene ningún cou-
nales, y las tensiones políticas existentes impiden cualquier
trapoder eficaz y escapa a los controles establecidos, como si ruestionamiento real.
existiera una forma de poder fuera del alcance del Estad..,,
aunque influya en este, y cuyos contornos no están defini- Quizá deberíamos estar preparados para aceptar que la tec-
dos en nuestras Constituciones, lo que hace que los riesgo nología, lejos de ser una simple herramienta, se ha convertido
de abuso sean reales cuando aún no se han consumado. Así en un actor central de nuestra evolución social y política, desa-
pues, no estamos realmente equipados, dentro de nuestra ílando los marcos establecidos y exigiendo una reflexión más
estructura normativa piramidal, para hacer frente a un fen profunda que la regulación existente.
meno que trasciende los límites tradicionales del derecho y

53 Ibídem, Artículo 3.
176 P HILIP P E P RINCE TRITIO lt1t1ligrnciaArtificial... 177

SECCIÓN 2. 1A HIDRA DIGITAL CONTRA reflexión profunda sobre el equilibrio entre previsibilidad y re-
EL LEVIATÁN: POR QUÉ EL DERECHO aultados efectivos. Harcourt destaca la ilusión de que mejores
TRADICIONAL YA NO ES SUFICIENTE predicciones conducen automáticamente a mejores resultados,
un principio que no se verifica sistemáticamente en la práctica.
La previsibilidad, o más bien la falta de ella, es una caracte- Especialmente en el contexto de la IA, las normativas centradas
C'll maximizar la previsibilidad pueden resultar contraproducen-
rística fundamental de la regulación de la 1A. Nuestra capacidad
de innovación y transformación de las tecnologías de 1A, elude lcs, dando lugar a comportamientos indeseables o a la aparición
los marcos reguladores tradicionales. El "efecto IA", como lo ex- de nuevas desigualdades. Este análisis pone de relieve los límites
plica el pionero de la ciencia computacional Larry Tesler, subra- y riesgos de los enfoques reguladores predictivos en el complejo
ya esta dinámica en constante evolución al afirmar que "la 1A es y cambiante entorno de la IA.
todo lo que aún no se ha hecho". En otras palabras, lo que hoy
Desde el principio, hay que reconocer que la regulación
se considera 1A puede convertirse mañana en una tecnología no es un monolito estático, sino un ecosistema vivo, sujeto a
estándar, con lo que cualquier intento de regulación basado en los mismos principios de complejidad e interdependencia que
definiciones estáticas está condenado a la obsolescencia. rigen los sistemas naturales y sociales. En otras palabras, la re-
En esta sección, veremos cómo esta situación asesta el gol- gulación, como sistema, está sujeta a fluctuaciones y perturba-
pe de gracia a la regulación tradicional (1), antes de concluir ciones que pueden alterar profundamente su estructura y fun-
exponiendo una vía inexplorada en la regulación de la IA;' y cionamiento, a menudo de forma inesperada. Esta naturaleza
no menor, ya que la humanidad se podría deber enfrentar a se ve exacerbada en el ámbito digital, donde las innovaciones
la vasta ta_rea de definir una teoría del poder algorítmico (2). disruptivas y las interacciones en red hacen más complejo cual-
quier intento de control.

l. Golpe de Gracia a la Normativa Tradicional Este estado de cosas no es nuevo; la sociología y la filoso-
fia de la ciencia, a través de pensadores como Edgar Morin
La regulación se enfrenta a un reto sin precedentes con la con su teoría de la complejidad, nos enseñan que los sistemas
aparición de la IA. Esta tecnología, capaz de redefinir los lími- están intrínsecamente marcados por la interacción dinámica
tes de lo posible, está poniendo de manifiesto las insuficiencias entre orden; desorden y organización, dando lugar a fenóme-
de un marco regulador rígido y preestablecido, revelando los nos emergentes imprevisibles.55 En este contexto, la regula-
límites de las herramientas legislativas tradicionales. Frente a la
complejidad y la volatilidad de la 1A, los enfoques normativos
están resultando inadecuados, cuando no obsoletos.
55 Morin argu menta que es esencial conectar el objeto tanto con el su-
La cuestión de la eficacia de la reglamentación en el ám- jeto co mo con su entorno, evitando verlo co mo una entidad inerte
bito de la 1A, como destaca Bemard Harcourt,54 requiere una y sin estructura. En su lugar, propone entender el objeto como un
sistema organizado. Además, sostiene que la teorización debe estar
dispuesta a confrontar y dialogar con la incertidu mbre y la contra-
dicción en sus resultados. Ver : Ju ignet, Patrick, " Edgar Morin et
54 Citado por Brian Christian, o-p. cit. Capítulo 2, "Beyond Prediction" la complexité", Phi/,oso-phie, science et société, 2015, https:/ /philoscien-
178 P HILIP P E P RINCE TRITIO Inteligencia Artificial... 179

ción debe verse no como un conjunto de reglas constantes , lecomunicaciones de Estados Unidos, específicamente la Sec-
sino como un proceso que puede adaptarse y reaccionar a los ción 230(c) de la Ley de Decencia en las Comunicaciones de
constantes cambios del panorama digital. 1996.5 8 Originalmente, esta disposición fue creada para prote-
La inestabilidad inherente a los sistemas complejos, inclu- ger a los proveedores de servicios en línea de ser responsabi-
so a los que parecen más estables, como los astronómicos, fut· lizados por el contenido publicado por terceros, fomentando
puesta de manifiesto por los trabajos de Henri Poincaré en así la libertad de expresión y el desarrollo de un floreciente
mecánica celeste, que revelaron que variaciones minúscula-; Internet. La intención era clara: incentivar a las plataformas en
en las condiciones iniciales de un sistema pueden provocar línea para que moderaran el contenido de manera responsa-
divergencias masivas en su evolución a largo plazo. Esto es es• ble sin enfrentar una avalancha de demandas legales.
pecialmente cierto en el caso de la regulación. 56 La limitada Sin embargo, la interpretación y aplicación de la Sección
previsibilidad de los sistemas complejos hace que la regulación 230(c) han tenido consecuencias no previstas y han sido objeto
tradicional no sólo sea ineficaz, sino a veces contraproducente. ele intensos debates. P or un lado, ha permitido que las plata-
Intervenciones reguladoras aparentemente menores pueden formas en línea crezcan exponencialmente, convirtiéndose en
desencadenar consecuencias inesperadas e incluso caóticas. gigantes tecnológicos con un poder sin precedentes sobre la
El hecho de que la regulación no sólo afecte directamente información y el discurso público. P or otro lado, esta misma
a su ámbito objetivo, sino que resuene en distintos sectores, protección ha sido criticada por permitir que dichas platafor-
a menudo de forma inesperada, es evocado por Michel Fou- mas evadan responsabilidades en casos de diseminación de in-
cault, que ilustra la fuerza radial de la regulación. Foucault se- formación falsa, discurso de odio, y otros contenidos dañinos.
ñala que el efecto de una medida reguladora puede ser difuso Lo que fue concebido como un escudo para fomentar la liber-
e imprevisible, operando en una lógica de vasos comunicantes tad de expresión y la innovación ha sido instrumentalizado, en
debido a la interdependencia de los sistemas reguladores y a la algunos casos, como un mecanismo que facilita la impunidad
dificultad de predecir las consecuencias a largo plazo de una de las plataformas en línea frente a los efectos perjudiciales de
intervención concreta. 57 ciertos contenidos.

Abundan los ejemplos concretos de inestabilidad normati• De forma análoga, especialmente en el ámbito de la IA que
va, que ilustran la fragilidad de los equilibrios en los que se se caracteriza por su poder disruptivo, nunca estamos a salvo
basan nuestros marcos legislativos. Consideremos la Ley de Te- ele un cisne negro, por utilizar la expresión de Nassim Taleb59,
que ilustra perfectamente la imprevisibilidad y el profundo

ces.co m/ edgar-mo rin-co mp lexite, ú lt imo acceso el 14 de marzo de


2014. 58
Corn ell Law Schoo l, "47 U.S. Code § 230 - Protection Fo r Prívate
56 Garapon, A., & Lassegue,J,]ustice digi,tale: révolution graphique et rup- Blocking And Screen ing Of Offensiv e Material", s.l., s. f. LII / Le-
ture anthropo!,ogique, Presses universitaires de France, París, 2018, pp. gal ln format ion Institute, https:/ / www.law.corn ell.edu/uscode/
234-235. text/47/230, último acceso el 15 de marzo de 2024.
57 M ich el Foucault , "Sécurité, territo ire, popu lat ion", Seu il, París, 59 Nassim Taleb, Le Cygne Noir. La Puissance de lTmprévisible, Les Belles
2004, p. 85. Lettres, París, 2012
180 P HILIP P E P RINCE TluIT1 lnllligencia Artificial... 181

impacto de acontecimientos poco frecuentes pero profun- rlonales, diseñadas para un mundo más estable y predecible, se
damente transformadores en los sistemas reguladores. Estos encuentran desarmadas ante la complejidad y la velocidad del
acontecimientos, por su propia naturaleza, escapan a los mar- progreso tecnológico. Regular la IA exige una profunda rein-
cos reguladores tradicionales, concebidos para gestionar situa- vención de nuestros planteamientos, un replanteamiento que
ciones previsibles y recurrentes. vaya más allá de los marcos establecidos para abrazar la flexibi-
lidad, la adaptabilidad y, sobre todo, la humildad ante la incer-
Esta inestabilidad debería llevarnos a reconsiderar el propio
uso de la lógica formal, pilar teórico de la regulación, dond 1

Lldumbre. Esto es lo que subraya la OCDE en estos terminos:
los principios de deducción clara e inferencia lógica luchan "realising the full potential of innovation in high-uncer-
por captar la fluidez y ambigüedad del murido digital. Autores tainty contexts requires a paradigm shift in regulatory poli-
como Ludwig Wittgenstein, con su teoría de los juegos del len- cy and governance towards more agile and forward-looking
guaje60, ponen de relieve esta limitación al mostrar cómo las approaches".62
palabras y las reglas cambian de significado según el contexto,
frustrando los intentos de categorización estricta y predecible.
Así, mientras que por un lado la lógica formal, tal y como la 2, Hacia una Teoría Algorítmica del Poder
describió Gottlob Frege,61 se basa en principios claros y defini-
dos de identidad y no contradicción, la regulación tradicional, A diferencia de la ingeniería y las ciencias computaciona-
en cambio, opera en un campo en el que las certezas son esca- les, el Derecho no pretende introducir conceptos que descri-
sas, especialmente cuando se trata de un objeto tan polimór- ban perfectamente la realidad. Al contrario, el Derecho intro-
fico como la IA. As í pues, la lógica formal, con sus estructuras duce ficciones,63 como la de la persona moral -que no es ni
rígidas y·sus premisas claras, lucha por ser utilizada en la regu- moral ni persona-, con el fin de utilizar herramientas jurídicas
lación de forma que abarque la fluidez y la incertidumbre, fun- para maximizar la protección de los derechos y libertades fun-
damento de los sistemas estocásticos, mismos que se han con- damentales de las personas y garantizar la sostenibilidad de
vertido en la norma en la IA. En este sentido, el concepto de su entorno físico y del marco democrático en el que viven. En
cisne negro regulador resulta útil para defender una regulación otras palabras, lo que plantea el Derecho tiene el fin de in-
más ágil y resistente, capaz de adaptarse a escenarios extremos fluir sobre la realidad. Así las cosas, los retos de comunicación
e imprevistos para captar la complejidad real del mundo, en
lugar de un intento de regulación lineal que choque con la
cambiante realidad de la IA. ' 62
OECD. "Annex A. Draft Recommendation of the Council on Ag-
Esta exploración de la regulación frente a la IA pone de re- ile Regulatory Govemance to Hamess Innovation". Public consul-
tation on the draft OECD Recommendation for Agil.e Regulatory Gover-
lieve una verdad incómoda: las herramientas reguladoras tradi-
nance to Harness Innovation. s.l. 2021, https://web-archive.oecd.
org/2021-06-11/591682-Draft-Recommendation-Agile-Regulato-
ry-Govemance-to-Hamess-Innovation.pdf. Último acceso el 12 de
60 Ludwig Wittgenstein, Cahier Bku, trad. Goldberg et Sackur, Galli- marzo de 2024. p. 3
mard, 1996, p. 56. 6B
Yuval Noah Harari, Sapiens: A Brief History o f Humankind, Signal, s.1.,
61 Gottlob Frege, Begríffsschrift, Lubrecht & Cramer, 1879. 2014, Capítulo 2, "The Legend of Peugeot"
182 P HILIP P E P RINCE 1 11·11 trligencia Artificial... 183

y entendimiento entre el Derecho y las ciencias compu1;1111 l,1fuentes de regulación son múltiples. Por tanto, es más pe-
nales pueden obstaculizar la regulación eficaz de tecnolOJ(I lif<I oso que deseable dar rienda suelta a la arquitectura digital
complejas. Un ingeniero y un jurista no tendrán la misma ti 111 dotarla de un marco en el que pueda limitarse cuando sea
finición de la palabra "sesgo", y quizá eso sea lo mejor. La rn11 111 resario. Y para lograrlo, del mismo modo que el ingeniero

fusión surge cuando la ley se interpreta en un lenguaje que· 1 1 •1 oporciona herramientas de su campo de especialización que
es ajeno, y viceversa. 1•11cden ser útiles al jurista, éste debe proporcionar herramien-
1.1, de su propio campo que le permitan ejercer su acción sobre
Los juristas que abordan temas de ingeniería, aunque en·,,
, 1 mundo, integrándolo en las realidades jurídicas.
que aportan mayor fuerza y claridad, están a veces socavando l
norma jurídica, que de hecho pierde de su poder y su carán Así pues, el fracaso de la regulación tradicional nos invita a
general. Es esgrimiendo la técnica jurídica, y no la ciencia cm11 unsiderar otras formas de marco para remodelar el paradig-
putacional aunque la tiene que entender, como eljurista dd, '"ª en el que estamos atrapados. Viendo el poder creciente
moldear hábilm nte el lenguaje para encontrar un marco qu 1 ubicuo que ha tomado la técnica en la sociedad, materiali-
permita reconocer el cambio social y, al mismo tiempo, ofren·, 1ndose en la hidra de la IA que conocemos, una respuesta al
herramientas eficaces, como demuestra la existencia del pri11 problema podría ser sencilla, elegante y, en retrospectiva, ob-
cipio de neutralidad tecnológica. El arte de gobernar req111 via: parece imprescindible reconocer y teorizar el poder algo-
re, por tanto, conocimientos históricos,jurídicos y lingüístiro, rítmico. En otras palabras, hay que reconocer el cambio para
para la formulación e interpretación de las leyes, y se inca.rn geationarlo mejor.
en una división tradicional de poderes entre "legislativo", "cjr Cuando la separación de poderes fue teorizada por Montes-
cutivo"_ y "judicial". c¡uieu en "El Espíritu de las Leyes", no se planteó la cuestión de
Pero ¿debemos ignorar las actividades de los ingeniero 11 esto complacía a uno u otro. Se trataba más bien de recono-
que, sin necesariamente tener conocimientos jurídicos, ta111 cer un hecho, de poner un calificativo jurídico sobre poderes
bién configuran el orden social? Desde luego que no. Esll1J1 que habían surgido hace mucho tiempo, de delimitarlos mejor
personas realizan un tipo de trabajo diferente al del juris1a, CI incluirlos en el proceso democrático reconociendo su exis-
pero el alcance de sus herramientas hoy en día tiene un olf 1,·ncia al mismo tiempo que teorizando sus límites; el poder
tivo similar al derecho, incorporando necesariamente opcio debía necesariamente detener al poder para evitar abusos.
nes políticas y morales que influyen en el comportamiento dt• Este nuevo poder, que llamaremos "Huella Algorítmi-
los individuos. No se trata de una observación nueva. Mientras
ra", emerge como un poder discreto, "espectral", según la
que las leyes regulan el comportamiento a través de la palabrn
expresión de Éric Sadin, 65 pero omnipresente en el paisaje
y la coacción, la arquitectura de los sistemas hace lo propio , 1lemocrático. Una "influencia heurística", "subrepticiamente
través de otros medios relativamente invisibles a simple vista,
como ha demostrado Lawrence Lessig,64 demostrando cómo

64 Lessig, Lawrence, "The law of the horse: What cyber law might GI Eric Sadin, La vie spectrale: Penser l' ere du métavers et des 1A géné-
teach," Haru. L. Reo., 113, 1999, p. 501. ratives, Grasset, Paris, 2023. Traducción por el autor.
184 P HIUP P E P RINCE T'Rrrr o lnttligencia Artificial... 185

incitadora",6 6 arraigada en la programación de algoritmos, marcos tradicionales. Su huella, fija en un momento dado,
está configurando el acceso a la información ysu presentación regula el espacio digital, y por tanto el fisico, con un alcance
de manera sutil pero decisiva. En el centro de este fenómeno, que exige atención y discernimiento: ¿Quién habla para regu-
el diseño algorítmico se convierte en un actor silencioso d•· lar? ¿Quién habla a través de las fibras ópticas? ¿Quién decide
nuestras elecciones cotidianas, modelando las relaciones s c¡uién habla? ¿Quién decide quién decide? 68
dales sin mediar palabra, guiando las percepciones a trav<.•s
de filtros invisibles. Dentro de esta red tejida por personas detrás de algoritmos,
destaca la modelización prescriptiva, que aspira al control ubi-
En primer lugar, dar una forma a la Huella Algorítmica LUO de los ciudadanos más allá de las fronteras. Hace algo más
debe ser una iniciativa que surge necesariamente de un pode, que simplemente estructurar el espacio digital; intenta anti-
constituyente, que aborda la cuestión de la necesidad de que· e lpar y guiar según una lógica directamente conservadora, ya
una sociedad elija su destino, a la que ya nos hemos referido que se supone que los datos analizados del pasado nos dicen
anteriormente. 1 uál será el futuro, un poder de a/,etheia algorítmica que no

Se hace eco de una frase acuñada por Paul Valéry en 1945: <lrbe considerarse insuperable. 69 Este intento de prescribir e
Influir en los comportamientos antes incluso de que se produz-
"El poder es la posesión de las condiciones que hacen que cun introduce un matiz proactivo en el debate democrático,
las acciones de alguien, o de unos pocos, o de todos, estén un bucle de retroalimentación indiscutible. Se trata, pues, de
sometidas a la palabra de alguien. Tener poder es poder hablar
como un amo. Por consiguiente, significa tener el discurso, la
1'1\cionalizar esta tendencia a "decir la verdad"7ºy ocultar el ele-
palabra que será obedecida."67 mento humano en el proceso de toma de decisiones.
Y como todo poder institucionalizado presupone un ciert o
En este contexto, la transparencia y la trazabilidad de las d<· rnonopolio, su instauración enmarca necesariamente el ejer-
cisiones algorítmicas son esenciales. La claridad en los proc<·· rlcio del poder digital a través de sus actores, según un proce -
sos de toma de decisiones digitales, lejos de ser una aspiració11, 10 democrático que debería ser completamente nuevo puest o
se está convirtiendo en un requisito para navegar por este lab<· ue emanaría de la capacidad técnica de los actores de la so-
rinto invisible y permitirnos ver con claridad cómo la lógica de· ciedad y de su influencia sobre ella. P odemos imaginar una
la tecnología se entrelaza con otros poderes. llomización del poder a través de individuos y formas sociales
La Huella Algorítmica, aunque derivada de la mano huma que, para participar, deben respetar un mandato imperativo
na, evoca una dinámica en la que la creación trasciende a srn1 Implícito que acompaña al desarrollo de las actividades digi-
creadores y las consid,eraciones partidistas. Los sistemas de tA f.iles. Por tanto, estamos añadiendo una dosis de democracia
en su conjunto, una vez puestos en marcha, influyen en la.,
interacciones digitales y fisicas con una inercia que desafia lo11 .. Shoshana Zuboff, The Age of Surveillance Capitalism, Public Affairs,
Edición Kindle, New York, 2019, Capítulo 6, "II. Who Knows ?"
Eric Sadin, LTntelligence ArtiftcieUe ou l'Enjeu du Siecle, L'Échappée,
66
Ibid. Traducción por el autor. Paris, 2018, p. 77-129.
67 Citado por Sadin, Eric Sadin, op. cit., p. 146. Traducción por el autor ti
/bid. Traducción por el autor.
186 P HILIP P E P RINCE T Rr.r-rti Tnteligencia Artificial... 187

directa al contrato social, desde el momento en que la tecno güedad de los sistemas de IA, proponiendo soluciones seguras.
logía digital entra en juego, en una lógica descentralizada. L:, Los intentos de importar los resultados de la investigación en
cuestión de la existencia de este poder puede entonces abor [A y en ingeniería al sistema jurídico siempre son delicados, y
darse directamente limitándolo mediante la preservación dt· lo son aún más cuando esta investigación misma no conduce a
la dignidad humana y de nuestro medio ambiente si se quie n· conclusiones fáciles de delimitar. P or lo tanto, no tuvimos ni la
que participe en el modelado de la sociedad. ventaja de la precisión ni de la exhaustividad, Nuestro objetivo
En su búsqueda de transparencia y comprensión, la Huelln era solo abrir una puerta potencial a un problema espinoso
Algorítmica interpela directamente a diseñadores y regulado- que parece estar bloqueado por todos lados. Este capítulo no
res. Esta interacción, crucial para el futuro del panorama polí- buscaba teorizar, siquiera parcialmente, cómo un nuevo poder,
tico, se basa en una colaboración en la que cada actor aportas,1 de un nuevo tipo porque actúa de manera difusa, debería in-
piedra al edificio de un entorno digital responsable e ilustrado, teractuar con los otros poderes existentes ni constituirse por
en el que deben tomarse decisiones de gobierno con respecto medio de representantes.
a la manipulación de datos según distintas concepciones, por Las ventajas de institucionalizar un nuevo poder constitu-
ejemplo, de la equidad. cional dedicado a la gestión de la Huella Algorítmica, en con-
Nos detendremos aquí, pero si lo examinamos más deteni• traste con los enfoques de regulación tradicionales, residen en
damente, la era de la IA, con su omnipresencia y su capacidad ofrecer estabilidad jurídica, reconocimiento formal del impac-
para remodelar las estructuras sociales, económicas y políticas, to de la IA, un enfoque holístico en su regulación, y fomentar
merece sin lugar a duda una reevaluación profunda de los pa- la participación democrática en su gobernanza. Este enfoque
radigmas de gobernanza existentes. Sin embargo, este enfoque podría prometer mayor flexibilidad y adaptabilidad frente a los
no está exento de desafios y requerirá un esfuerzo colectivo rápidos avances tecnológicos, enfatiza la protección de dere-
para garantizar que la gobernanza de la IA refleje los valores y chos y libertades fundamentales dentro de un marco robusto,
principios que queremos que guíen nuestro futuro colectivo. y permite la integración de principios éticos. Esta integración
no solo fortalece la estabilidad y la claridad jurídica, sino que
también impone una obligación directa y explícita de proteger
los derechos humanos frente a los desafios emergentes de la
CONCLUSIÓN tecnología. Además, busca proporcionar una coherencia y ar-
Hemos intentado demostrar en este capítulo, de forma sim- monización de las regulaciones relativas a la IA, sin sacrificar la
plificada y por lo tanto incompleta, que los enfoques de regula- necesidad de regulaciones más específicas y contextualizadas.
ción actuales podrían no estar adaptados a los cambios provoca- Sin embargo, es crucial abordar este enfoque con una
dos por la tecnología digital en general y por la IA en particular, perspectiva crítica, reconociendo las complejidades inheren-
sea lo que sea lo que este término englobe realmente. tes a la regulación de la IA y la necesidad de un marco que sea
Sería cuando menos irónico concluir un artículo que se tanto adaptable como capaz de anticipar futuros desarrollos
basa en gran medida en investigaciones que enfatizan la incer- tecnológicos, asegurando así una protección efectiva y diná-
tidumbre de sistemas complejos como la regulación y la ambi- mica de los derechos humanos en la era digital. P or lo tanto,
nos limitamos a mostrar en qué esta solución, de naturaleza
188 P HILIP P E P RINCE TRITIO Inteligencia Artificial... 189

constitucional, puede ser pertinente y necesaria debido a las Castets-Renard, Céline, "La voiture autonome: la reglementation aux
Etats-Unis (Toe Autonomous Car: Regulations in the United States) ,"
características del poder algorítmico que se escapa frente a
La cirr:ulation des automobilistes en Europe, Sous la direction de Fabrice
las técnicas tradicionales de regulación. Sobre todo, busca- Picod etFrancesco Martucci, Bruylant, 2018.
mos mostrar que otros enfoques existen y que las soluciones Christian Brian, The Alignment Problem, W. W. Norton & Company, Kindle
no son escritas con antelación, a pesar de la inflación regle- Edition, New York, 2020
mentaria existente. Committee on Artificial Intelligence, Draft Framewurk Convention on Arti-
La era digital, con todos sus retos y oportunidades, exige una ficial Intelligence, Human Rights, Democracy and the Ru/,e of Law, Council
reflexión renovada sobre.los modos de regulación. La Huella of Europe, Estrasburgo, 18 de diciembre de 2023, https:/ /rm.coe.
int/cai-2023-28-<lraft -framework<onvention/ l 680ade043, últ imo
Algorítmica, como cuarta columna, sugiere un camino a seguir
acceso el 7 de marzo de 2024.
para la integración armoniosa de las dinámicas tecnológicas en
Co rnell Law Schoo l, " 47 U.S. Code § 230- Protection For Private Block-
el tejido social, cultural y político. Este reconocimiento abr, íng And Screen ing Of Offensive Material" , s.l., s. f. Lll / Legal Info r-
la puerta a estrategias innovadoras para enmarcar, orientar y mat ion Institute, https:/ /www.law.co mell.edu/uscode/text/47/ 230,
equilibrar la influencia de los algoritmos en nuestra vida coti último acceso el 15 de marzo de 2024.
diana, invitándonos a reflexionar colectivamente sobre cóm Dcfense Science Board, "The Role of Autonomy in DoD Systems," Task
queremos que la 1A configure nuestro futuro, planteando así la Force R.epart, US Department of Defense,julio de 2012, pp. 234.
pregunta fundamental: ¿tenemos la debida preparación par'1 F.FF, "Facial Recognition", E/,ectronicFrontierFoundation,s.l., 2019, https://
redefinir nuestros marcos de gobemanza a fin de contener el www.eff.org/document/facial-recognition, u ltimo acceso el 14 de
poder de la IA, garantizando la protección de nuestros valores marzo de 2024.
y derechos fundamentales? F.kbia, H. "Heteronomous Humans and Autonomous Agents: Toward Arti-
ficial Relational Intelligence," Beyond Artificial Intelligrmce. Tapies in Intel-
lígent Engineering and Infurmatics, vol 9, Springer, Cham, 2015, pp. 6S-77
l"oucault Michel, "Sécurité, territoire, population", Seuil, Paris, 2004, p. 85.
BIBUOGRAFÍA
Gallmullin R. y Young Pedersen Mina, ''Visibility and exploitation in so-
Abdelhamid, Manar y Ghada Hassan, "Blockchain and smart contracts," cial networks," Mathematical Structures in Computer Scíence, 2023.
Proceedings of the 8th International Confere nce on Software and Jnfonnatio11 Üarapon, A., & Lassegue, J, justice digita/,e: réuolution graphique et rupture
En neering, 2019, pp. 91-95. anthropowgique, Presses universitaires de France, Paris, 2018.
AIAdvisoryBody, InterimR.epart:GoverningAiforHumanity,Naciones Uni- 1. u field, Eugene. "The unintended and unanticipated consequences of
das, s.1., diciembre de 2023, www.un.org/en/ai-advisory-body, ulúmn Robert K Merton," Social Studies of Science 34, no. 6, 2004, pp. 845-853.
acceso el 14 de marzo de 2024. 1 ••mzález, Femanda, " OpenA I Auto riza El Uso De Sus Sistemas De 1A
Banco Mundial, «GDP (current US$),» World Development Indicatot , Para Fines Militares," WIRED, 15 de enero de 2024, https:/ / es.wired.
último acceso el 13 de marzo de 2024, https://data.worldbank.org co m/articulas/openai-autoriza-el-us e-sus-sistemas e-ia-para-
indicator/NY.GDP.MKTP.CD). rmes-militares, último acceso el 11 de marzo de 2024.
BP, « Stat istical Rev iew o f Wo rld Energy fo r Primary Energy Consu mp • ,,,ulob Frege, Begriffsschrift, Lubrecht & Cramer, 1879.
tion,» ú lt imo acceso el 13 de marzo de 2024, https://data.subak.o rg
• ,,11po Independiente de Expertos de Alto Nivel sobre Inteligencia Arti-
dataset/bp-statistical-rev iew-o f-wo rld-energy/ re source/ 3a0753fK
ficial, Directrices Éticas para una IA FiaJJl,e, Comisión Europea, s.l., 2019,
7ebe450c-95d9-4625a62b7fcd p.18 (58).
190 PHILIPPE PRINCE 'DuT1t1 Inteligencia Artificial... 191

Hy man, M ichael R., Robert Skipper, and Richard Tansey, "Ethical codt Luh mann, Niklas, «El Modelo Sintético de Co municación de,» Cinta de
are not enough," Business Hvrizons 33, no. 2, 1990, pp. 15-23. Moebio, 47, 2013, pp. 59-73.
IEEE, " Ethically aligned design. A Vision for Prioritizing Hu man Well-J:w Nacion es Un idas, Carta de las Naciones Unidas, San Fran cisco, 1945,
ing with Autonomous and Intelligent Systems", The JFEE Gwbal I,¡¡ https:/ / www.un.o rg/es/about-us/un-charter/fu ll-text, ú lt imo ac-
tiative on Ethics of Autonomous and Intelligent Systems, The IEEE Glob:il ceso el 9 de marzo de 2024.
Initiative, s.l., 2019, p. 3. Nassim Taleb, Le Cygne Noir. La Puissance de l1mprévisib/,e, Les Belles Let-
ISO/IEC. 2023. lnformation technology - Artificial intelligence tres, París, 2012
Guidance on risk management. ISO/IEC 23894:2023. Geneva, Swi1 OECD, " Upd ates to the OECD's Defin it ion o f an A l System Exp lained -
zerland: Intemational Organization for Standardization . OECD.A l," 29 de nov iemb re d e 2023, https:/ /oecd.ai/en/ won k/
J. Pavlik, "Collaborating With ChatGPT: Considering the Implications ol ai-system-defin it ion-upd ate, último acceso el 7 de marzo de 2024.
Generative Artificial Intelligence for Joumalis m and Media Eduo OECD, OECD'Guidelines on the Protection of Privacy and Transbwder Flows of
tion," journalism & Mass Communication Educatw, 78, 2023, pp. 84 - Personal Data, OECD Publishing, París, 2002.
93, https://doi.org/10.1177/ 10776958221149577.
OECD. "Annex A. Draft Reco mmendation of the Council on Agile
Jacques Ellul, Le Blúff Technow que, Pluriel, París, 1988
Regulatory Govemance to Hamess Innovation". Public consulta-
Jancovici, J-M, Dormer. Tranquilles jusqu'en 2100, OdileJacob (Versión parn tion on the draft OECD Recommendation fw A /,e Regulatary Gover-
Kindle), París, 2015. nance to Harness Innovation. s.l. 2021, https:/ /web-archive.oecd.
Jennings, Kyle E, "Developing Creativ ity: Art ificial Barriers in Art ificial org/ 2021-06-11 / 591682-Draft-Reco mmendation-Agile-Regulato-
Intelligence," Minds and Machines, 20, 2010, pp. 489-501. ry-Govemance-to-Hamess-Innovation.pdf. Últ imo acceso el 12 de
Jiming Liu, Xiaolong Jin y K. Tsui, "Autonomy-oriented computing marzo de 2024.
(AOC): formu lating co mputational systems with autonomous com- OECD.A l (2021), po wered by EC/ OECD (2021), database of national Al
ponents," JFEE Transactions on Systems, Man, and Cybernetics.: Part A: policies, ultimo acceso el 15 de febrero de 2024, https:/ /oecd.ai.
Systems and Humans, 35, 2005, pp. 879-902. Oficina del A lto Co mis ionado de las Naciones Un idas para los Derechos
Josserand Louis, De la responsabilité du fait des choses inanimées, Librairie Humanos, Protocolo Adicional a los Convenios de Ginebra del 12 de agosto
nouvelle de droit et de jurisprudence, París, 1897. de 1949, relativo a la Protección de las Víctimas de /,os Conflictos Armados
Juignet, Patrick, "Edgar Morin et la co mplexité", Phiwsophie, science et so- Internaciona/,es (Protoco lo I), Gineb ra, 1977, https:/ / www.ohch r.
ciété, 2015, https:/ /philosciences.com/edgar-morin-co mplexite, últ i- org/es/instruments-mechanis ms/instru ments/protocol-add itio-
mo acceso el 14 de marzo de 2014. nal-geneva -conv entions-12-august-1949-and -O, ú lt imo acceso el 9
Lessig, Lawrence, "The law of the horse: What cyber law might de marzo de 2024.
teach," Harv. L. R.eu., 113, 1999, p. 501. Oldfather, Chad M, ''.Judging, expertise, and the rule of law," Wash. UL
Ludwig Wittgenstein, Cahier Bl,eu, trad. Goldberg et Sackur, Gallimard, Rev, 89, 2011, p. 847.
1996. OpenAI, Chat GPT (Versión de Abril 2023) [Large language model], s.l.,
Luhman, Niklas, "Tautology and Paradox in the Self-Descript ions of 2024, https:/ / ch at.openai.co m/share/e683236b -e4e6-429e-bc8d -
Modem Society," Sociow al Theary 6, no. 1, 1988, pp. 21-37. f23b2b77d 960, último acceso el 7 de marzo de 2024.
Luhmann, N, A Socio/,o cal Theary of Law, traducido por Klaus A. Ziegert, Ou r Wo rld In Data, "Aug mented Hu man Develop ment Index," Our
Oxford University Press, 1985 Wwld In Data, s.1., 2021, https://ourwo rld indata.org/g rapher/aug -
Luhmann, N, Law As a Social System, traducido por Klaus A. Ziegert, Ox- mented -hu man -develop ment -index, u lt imo acceso el 14 de marzo
ford University Press, 2003 de 2024.
192 P HILIP P E P RINCE TR:rrrn lntaligencia Artificial... 193

Parlamento Europ eo, "Art ificial Intellig ence Act : Deal on Co mpreh en Universidad de Montreal, Decl,aración de montreal para un desarrollo respon-
sive Ru les fo r Trustwo rthy A l I News I Eu ropean Parliament," 9 de sabl,e de /,a inteligencia artificia4 University of Montreal, Montreal, 2018,
diciembre de 2023. https://www.europarl.eu ropa.eu/n ews/en/ https:/ /www.montrealdeclaration-responsibleai.com/
press-ro o m/ 2023 120 6IP R15 699/ art ificial-in t ellig en ce -act -d eal- Wang, Vmcent Ni And Yitsing, "How to "disappear" on Happiness Avenue
on-co mp rehens ive -ru les -for-t rust wo rthy -ai, últ i mo acceso el 7 dt • in Beijing ," BBC, 24 de nov iemb re d e 2020, https:// www.bbc.co m/
marzo de 2024. news/technology-55053978, ultimo acceso el 14 de marzo de 2024.
Parlamento Europeo, Regl,amento (VE) 2024/1689 del Parl,amento EuropM Wlener No rbert, Human Use of Human Beings, Doubleday & Co mpany,
y del Consejo de 13 de junio de 2024 por el que se estabkcen normas ar s.l., 1954
monizadas en materia de inteligencia artificia4 Unión Europea, 12 de World Econo mic Fo rurn , " Ho w To Regu late A l W ithout Stifling In-
julio de 2024, https://eur-lex.europa.eu/legal-content/ES/TXT/ novation", s.l., 6 d e. jun io de 2023, https:/ / www.wefo rurn .org/
HTML/?uri=OJ, último acceso el 31 de julio de 2024 agenda/ 2023/06/ho w-to -regulate-ai-without -stifling -innovat ion/, ú l-
Parlamento Europeo, Resolución 2015/2103(INL) con recomendaciones des- timo acceso el 12 de marzo de 2024
tinadas a /,a Comisión sobre normas rk Derecho civil sobre robótica, Unión 'ruval Noah Harari, Sapiens: A Brief History of Humankind, Signa!, s.l., 2014.
Europea, 16 de febrero de 2017, https:/ /www.europarl.europa.eu/
Zodhya, " Ho w Much En ergy Do es Ch at GPT Consu me? - Zodhy a - Me-
doceo/document/TA-8-2017-005l_ ES.htrnl, últ imo acceso el 7 de
diu m", Mediu m, 19 de mayo d e 2023, ú lt ima consu lta el 14 d e marzo
marzo de 2024.
de 2024, https:// med iu m.co m/ @zodhy atech/ho w-mu ch-energy -
Sadin Eric, LTntelligence Artificielle ou l'Enjeu du Sück, L'Échappée, Paris, does-chatgpt-consume-4cbala7aef85.
2018.
Sad in Eric, La v ie spect rale: Penser l'ere du métavers et des 1A gén érat i-
ves, Grasset, Paris, 2023.
Shoshana Zuboff, The Age of Surveill,ance Capitalism, Public Affairs, Edición
Kindle, NewYork, 2019.
The Wh ite House, " Blueprint for an Al Bill of Rights I OSTP I the Wh ite
House," s.l., 22 de nov iembre de 2023, https:// www.wh itehouse.
gov/ostp/ai-bill-of-rights/, último acceso el 7 de marzo de 2024.
Tho mas B Sheridan y William L Verp lan k, " Hu man and Co mputer Con-
trol ofUnder-sea Teleoperators," Technicallwport, Massachusetts Insti-
tute ofTechnology, 14July 1978, pp. 8-17.
Totschnig Wolfhart, "Fully Autonomous Al," Science and Engi,neering Eth-
ics, 26, 2020, pp. 2473 - 2485.
UN ESCO, R eco mendación sobre /,a ética de /,a inteligencia artificial ad<>j)tada
el 23 de noviembre de 2021, Francia, 2022, , https:/ /unesdoc.unesco.
org/ark:/ 48223/pf0000381137_spa.locale=es, últ imo acceso el 12 de
marzode2024
United Nations, "Hu man Development Index," Hu man Deve!,op-
ment Iwports. s.l., s.f., https:/ /hdr.undp.org/data-center/human-
development-index#/indicies/HDI, ult imo acceso el 14 de marzo de
2024.

También podría gustarte