IA en Salud: Marco Jurídico y Retos
IA en Salud: Marco Jurídico y Retos
INTELIGENCIA
ARTIFICIAL APLICADA
A LA SALUD: ¿QUÉ
MARCO JURÍDICO?*
* El presente trabajo se realiza en el marco de la financiación del Gobierno Vasco a Grupos de Investigación del Sistema Universitario Vasco (IT 1066-16); en el Proyecto
PANELFIT del Programa H2020 de la Comisión Europea; y en el de la licencia sabática concedida por la UPV/EHU (Prof. CM Romeo Casabona).
1
Introducción
VOLVER AL ÍNDICE 61
• Por otro lado, esta ingente cantidad de datos no puede ser manipulada, analizada y
procesada con mecanismos o procesos tradicionales2. En este sentido, el desarrollo
tecnológico-computacional actual permite que esos datos sean objeto de un tratamiento
automatizado mediante complejos modelos algorítmicos con el fin de generar correlaciones,
tendencias y patrones, en definitiva, con el fin de extraer valor económico y social de esos
datos concebidos como materia prima3.
La conjunción de estos factores nos lleva a hablar de una nueva forma de generar conocimien-
to4. Entre esos complejos modelos algorítmicos, destaca el aprendizaje automático (o machine
learning, ML). La IA tiene por objeto que los sistemas informáticos desarrollen proce-
sos lógicos semejantes a la mente humana. Es un campo de estudio que busca explicar y
emular el comportamiento inteligente en términos de procesos computacionales5.
VOLVER AL ÍNDICE 62
El aprendizaje automático aborda los problemas
“aprendiendo” reglas a partir de los datos7.
VOLVER AL ÍNDICE 63
En el DL, esas mejores representaciones para los datos que el modelo va aprendiendo se reali-
zan en diferentes capas, esto es, se reconocen los patrones en los datos de entrada en diferen-
tes niveles jerárquicos; así, los datos de entrada fluyen desde la capa de entrada a la capa de
salida. De forma simplificada, podríamos decir que cada capa está formada por unidades e
interconectadas configuran una red neuronal y, al igual que las sinapsis cerebrales,
esas conexiones entre unidades son o excitadoras o inhibitorias y varían de peso o
fuerza. En la red neuronal, el aprendizaje se produce por medio de la retropropagación, el
algoritmo compara el resultado obtenido en la capa de salida con el resultado deseado y asume
que el error en la unidad de salida se debe a errores en las unidades conectadas con ella10, con
lo que, para corregirse, realiza ajustes en los pesos asignados en la red desde la capa de salida
a la capa de entrada –hacia atrás, de ahí el término retropropagación–. Un aspecto de particular
importancia en el heterogéneo campo de los datos de Salud, es que los sistemas de DL son
capaces de analizar conjuntamente muy distintos tipos de datos11, desde la anamnesis
recogida en la HCe a una radiografía de cualquier zona corporal.
Pato-
Diagnóstica Terapéutica Pronóstica
fisiológica
VOLVER AL ÍNDICE 64
Por un lado, su rendimiento se ha comparado con los sistemas algorítmicos clásicos. Re-
cientemente, un estudio16 comparó la capacidad de varios modelos algorítmicos para prede-
cir el riesgo de una muerte prematura en británicos entre 40 y 59 años. Con carácter pros-
pectivo, el modelo fue alimentado con datos del UK Biobank de más de medio millón de personas
de dicha cohorte que incluían aspectos que van desde el género, nivel de estudios o la etnia, a los
antecedentes familiares, hábitos de consumo o diagnósticos y enfermedades previas. Los resul-
tados indicaron que los modelos algorítmicos de aprendizaje automático eran capaces de
predecir las muertes prematuras de forma más precisa que otros modelos algorítmicos
tradicionales. En particular, el modelo de DL basado en redes neuronales artificiales es el que
mejores resultados obtuvo, aunque sin diferencias significativas sobre el resto de modelos de ML.
El modelo de
aprendizaje pro-
fundo basado en
redes neuronales
artificiales es el
que mejores re-
sultados obtuvo
A pesar de que este tipo de estudios comparativos son muy comunes, la literatura coincide en
que el mayor valor de las tecnologías basadas en IA reside en los efectos sinérgicos de la inte-
racción entre las máquinas y los seres humanos.
VOLVER AL ÍNDICE 65
A partir de los anteriores presupuestos tecnológicos proyectados en el ámbito de la Salud,
podemos plantearnos algunos aspectos problemáticos y apuntar hacia su enfoque y a las
respuestas más adecuadas desde el punto de vista jurídico19:
5 La opacidad sobre los elementos esenciales y sobre el proceso por el que un sis-
tema de IA ha llegado a una conclusión decisoria (indica su propuesta, pero no apor-
ta información significativa sobre en qué elementos o factores causales ha fundamentado
aquélla), comporta el riesgo de que el profesional de la Salud no pueda validar y confirmar o
descartar razonadamente la propuesta del sistema al pretender adoptar su propia decisión,
lo que puede conducir a discutir su posible responsabilidad si se acredita que hubo algún
error en el sistema o en el propio profesional que repercutiera en el empeoramiento del es-
tado de Salud del paciente.
VOLVER AL ÍNDICE 66
2
Implicaciones del big data para
el régimen legal de los datos
personales en el ámbito de la
asistencia sanitaria
Con la expresión big data suele acotarse, según adelantábamos más arri-
ba, una variedad de tecnologías mediante las cuales puede ser tratada
una cantidad masiva de datos de origen muy diverso relativos a una mis-
ma persona o a un número extenso de ellas23.
Los datos que interesan aquí son los datos de Salud o que, sin serlo en sentido estricto, están
relacionados con ella y guardan interés respecto a la misma24. Destaca, tras su procesamiento
correspondiente, la capacidad del sistema inteligente para elaborar el diagnóstico de la enfer-
medad que padece el paciente o que desarrollará o podrá desarrollar, aunque en el momento
de emitir el dictamen sea asintomático; la anticipación de pronósticos y la propuesta de trata-
mientos adaptados a las características biopatológicas que presenta de forma individualizada el
paciente. Debe subrayarse en particular esta capacidad según lo indicado, esto es, que el trata-
miento de datos masivos puede ayudar a descubrir un gran número de predisposiciones
para desarrollar enfermedades cuya manifestación es incierta o revelar la condición de por-
tador de enfermedades hereditarias, la (in)tolerancia individual a ciertos tratamientos, principal-
mente con medicamentos.
El sistema inteligente
puede elaborar el diag-
nóstico de la enfermedad
que padece el paciente o
que desarrollará o podrá
desarrollar, anticipar
pronósticos y proponer
tratamientos adaptados
a las características
biopatológicas
VOLVER AL ÍNDICE 67
Los efectos del tratamiento masivo de datos son muy variados. Así, este tratamiento de los
datos (ML, DL) permite establecer relaciones entre datos muy diversos y obtener conclu-
siones que sería imposible o muy difícil de extraer a partir de cantidades de datos reducidas o
más homogéneas.
2 TIPOS DE ALTERACIONES
DEL BIG DATA:
PROCESAMIENTO DE ENORMES
ALTERACIÓN CUANTITATIVA
CANTIDADES DE DATOS
VOLVER AL ÍNDICE 68
Estos asuntos requieren que el nuevo marco normativo es-
tablecido por el RGPD25 abarque las peculiaridades que pre- La ley no puede
prever con tanta
senta cada uno de ellos. Ya no va a depender directa o indi-
facilidad la natu-
rectamente de la voluntad del interesado que pueda darse raleza que tendrán
nacimiento a datos de carácter personal. Por otro lado, la estos datos y en
ley no puede prever con tanta facilidad la naturaleza función de ella
que tendrán estos datos y en función de ella estable- establecer su
cer su régimen jurídico específico. Las tareas relaciona- régimen jurídico
específico
das con la transmisión de información al titular de los datos
pueden ser demasiado cortas o demasiado extensas.
En resumen, desde el punto de vista jurídico el big data presenta una relevante novedad
y un gran desafío. Así, en primer lugar, debemos plantearnos si el marco jurídico actual, aun
siendo nuevo, es una herramienta adecuada para regular situaciones nuevas y futuras que per-
cibimos ya como previsibles a no muy largo plazo. En concreto, debemos dirigirnos al RGPD
para obtener respuestas y más en particular para comprobar si son suficientes las que
aporta sobre el big data.
La nueva normativa
de nuestro país que
complementa y
desarrolla el RGPD
establece criterios y
prescripciones adap-
tadas a las exigencias
jurídicas específicas
que se derivan de la
aparición del big data
en la sociedad
VOLVER AL ÍNDICE 69
3
Derecho a la información,
derecho a la explicación
del paciente
VOLVER AL ÍNDICE 70
En el marco de la relación médico-paciente, la cuestión va más allá, dada la figura del mé-
dico responsable, es decir, el que garantiza el cumplimiento del derecho a la información al
paciente y, en particular, de que ésta sea expresada en términos adecuados a las posibilidades
de comprensión de aquél31.
VOLVER AL ÍNDICE 71
En este sentido, algunos autores exponen que, detrás de algunas de las propuestas y regu-
laciones en torno a una IA interpretable que buscan hacer más transparentes las herramientas
algorítmicas de decisión, existe una suposición implícita.
Esta suposición parte de que es justo imponer un nivel más alto de transparencia a tales
herramientas de lo que normalmente se impondría a los responsables de la toma de decisiones
humanas, dado que el tipo de interpretabilidad que no podemos –pero pretendemos– obtener
de la IA tampoco lo podemos obtener de los humanos32.
VOLVER AL ÍNDICE 72
4
La automatización de la práctica
clínica: límites a la autonomía del
paciente y a la facultad decisional
del profesional
La práctica de la
Medicina no es
ajena a la automa-
tización que está
desarrollándose en
prácticamente la
totalidad de los
sectores producti-
vos de la sociedad
VOLVER AL ÍNDICE 73
Si los sistemas de IA son coches que necesitan
gasolina para funcionar, en el proceso de refina-
miento de los datos –el petróleo– para extraer
valor del mismo –la gasolina–, nos encontramos
con la premisa anglófona garbage in, garbage
out (GIGO), que obliga a considerar no solo la
cantidad de datos con los que vamos a alimen-
tar nuestro algoritmo, sino muy especialmente a
considerar la calidad de los mismos.
Casi un 40%
del tiempo de
la consulta en
Atención Primeria
se dedica al sistema
informático
VOLVER AL ÍNDICE 74
Y si el proceso de recogida de los datos es costoso,
tampoco resulta fácil conseguir que una máquina compren-
da datos no estructurados, acrónimos, frases abreviadas,
diferentes estilos de escritura y errores humanos que se
congregan en las HCe40. Por todo ello, entendemos que no
puede ignorarse el coste humano del proceso de refi-
namiento de los datos que requieren los sistemas de IA
para funcionar y más aún cuando, lamentablemente, parece
ser que en España estamos lejos de conseguir un sis-
tema de adquisición y almacenamiento de los datos
que permita su procesamiento analítico posterior41.
Una vez un sistema cuenta con la información suficiente sobre el entorno, es cuando podemos
hablar de la automatización de la toma de decisiones. Al contrario de lo que muchas veces se per-
cibe, la automatización no es tanto un binomio –decisión automatizada o decisión no automa-
tizada– sino una escala progresiva42 –desde decisión nada automatizada a decisión totalmente
automatizada–; por el momento, dado el desarrollo actual de la ciencia, en el ámbito sanitario será
difícil encontrar decisiones totalmente automatizadas donde un sistema de IA decida di-
rectamente y sin supervisión humana, por ejemplo, qué tratamiento debe seguir un paciente.
Más habitual será que estos sistemas se integren como Sistemas de Apoyo
a las Decisiones –Decision Support Systems (DSS)–, de modo que la decisión
final seguirá recayendo sobre el facultativo, aunque la progresiva automatización
obligará a redefinir los roles de la relación médico-paciente
VOLVER AL ÍNDICE 75
Nada hay que objetar en principio a estas acciones y a
esta forma de utilización de los recursos tecnológicos
en el tratamiento de los datos de Salud, en particular
si son anónimos o han sido anonimizados. Más du-
doso es que estas estrategias y la disponibilidad
de TIC avanzadas puedan llegar a promover con
el paso del tiempo la toma de decisiones rutina-
rias o, peor, completamente automatizadas, sin
otro tipo de respaldos que refuercen la decisión o la
desaconsejen; o se focalicen hacia personas concre-
tas que responden al perfil que interesa identificar. El
análisis jurídico se vuelve entonces inevitable.
Un problema jurídico de primera magnitud que podrá afectar también a los pacientes se refiere
a que la elaboración de perfiles a partir de datos personales tienda a clasificar de for-
ma consecuente a las personas en grupos o subgrupos con perfiles similares a los que
se asocian determinados patrones; p. ej., incluir a un paciente oncológico en protocolos
que se refieren a las actuaciones asistenciales para cuadros cancerosos semejantes sin tener
suficientemente en cuenta las variantes que pueda presentar ese paciente concreto. A partir de
ahí, podrían asumirse decisiones automatizadas, prescindiendo de individualizar la decisión
por parte del profesional, esto es, de las características más singulares o individuales que pre-
sente el paciente en cuestión, sin supervisar y validar, en su caso, las propuestas decisionales
del sistema digital.
Es importante
individualizar
las decisiones
por parte del
profesional
VOLVER AL ÍNDICE 76
Sobre este particular la conclusión no puede ser otra que rechazar que una decisión asis-
tencial esté basada exclusivamente en perfiles elaborados sobre los pacientes y se
tome de forma exclusivamente automatizada, sobre todo si conduce a la exclusión del tra-
tamiento sin ofrecer a cambio otro supuestamente menos eficaz pero indicado como alternati-
va45. En consecuencia, podrían ser víctimas de prácticas arbitrarias, al no tener en cuenta otros
elementos decisorios relevantes; o discriminatorias, al poder ser excluido de un tratamiento o
prescribirle otro en atención a diversas consideraciones extra sanitarias.
También es cierto que las prácticas de automatización aludidas con anterioridad de hecho se-
rían por el momento casi marginales para el ámbito de aplicación de lo que el RGPD entiende
por decisiones automatizadas en su artículo 22, esto es, procesos de toma de decisiones
basadas únicamente en el tratamiento automatizado de datos46. En cualquier caso, debemos
prepararnos para esta eventualidad, pues es previsible que se vayan extendiendo decisio-
nes automatizadas en el sentido vedado por el Reglamento, empezando por los procesos
decisionales más sencillos, pero que probablemente avanzarán a terrenos más complejos.
VOLVER AL ÍNDICE 77
Algunas empresas privadas están trabajando en el perfeccionamiento de sistemas com-
putacionales capaces de establecer relaciones de datos diversas que al mismo tiempo
permitan a la persona responsable de la toma de la decisión seguir el proceso al que ha
llegado a favor de una determinada decisión y no a favor de otra, como puede ocurrir al dicta-
minar un diagnóstico médico (así, con la Plataforma Watson, de IBM; o con la de Google).
VOLVER AL ÍNDICE 78
De acuerdo con la normativa europea, una decisión asistencial no podrá basarse única-
mente en los perfiles obtenidos del paciente; esta prohibición es coherente con la esencia
individualizadora de la que parte una nueva concepción de la medicina que se está abriendo
camino: la Medicina Personalizada de Precisión51.
No cabe duda de que un paciente puede verse seriamente comprometido por cualquier decisión
que repercuta en sus expectativas y que puede afectarle “significativamente” en cada una de
las situaciones en las que pueda encontrarse.
La Medicina
Personalizada de
Precisión ha surgi-
do para prevenir la
asunción de conclu-
siones equivocadas
en la que también
puede incurrir un
sistema computa-
cional
VOLVER AL ÍNDICE 79
5
La cuestión de la opacidad en los
sistemas de IA y la atribución de
responsabilidad legal
Dejando a un lado las matizaciones que realizaremos más adelante sobre el concepto de opa-
cidad, por ello se denominan habitualmente “cajas negras”, o “black boxes”.
Como contrapunto, la transparencia es una exigencia que ha ido ganando terreno tam-
bién en los procesos de automatización, llegando a reivindicarse como un verdadero dere-
cho prestacional que exige actuaciones positivas por parte de las autoridades públicas53. Este
principio es entendido como que “toda información y comunicación relativa al tratamiento de los
datos personales sea fácilmente accesible y fácil de entender”54. Podría considerarse como una
expresión del derecho a la explicación, que dijimos más arriba otorga una nueva dimensión al
derecho a la información.
Estamos ante una cuestión decisiva, pues la falta de interpretabilidad de estos sistemas de
IA ha sido, hasta el momento, una de las limitaciones más importantes para implementar en la
práctica médica estos métodos con tanto potencial. En efecto, para que un profesional pueda va-
lidar un determinado resultado y asumir tomar –o aceptar- una decisión sobre su(s) paciente(s)
necesita conocer los elementos esenciales en los que se ha basado la conclusión del sistema de IA.
Ante la falta de
interpretabilidad
de estos sistemas
de IA es necesario
un aumento de la
transparencia en
la automatización
VOLVER AL ÍNDICE 80
Un estudio55 realizó un ensayo para determinar si el aprendizaje automático podía utili-
zarse para predecir el riesgo de muerte tras sufrir una neumonía, esta predicción sería
utilizada para tomar una decisión más informada sobre la hospitalización de un paciente, redu-
ciendo costes en hospitalizaciones innecesarias e identificando de forma más precisa aquéllos
pacientes que sí necesitaban hospitalización. El modelo algorítmico utilizado no fueron
redes neuronales artificiales, sino uno más sencillo e inteligible (rule-based system).
NEUMONÍA MUERTE
Sin embargo, si la clasificación se hubiera basado en una red neuronal, podría haber
sido mucho menos obvio cuál de las características causó que el sistema atribuyera un bajo
riesgo a las personas asmáticas.
VOLVER AL ÍNDICE 81
Los temores en torno a la opacidad no son infundados, ya que uno de los riesgos más evi-
dentes asociados a la recogida y tratamiento automatizado de los datos es la introduc-
ción de sesgos que deriven en decisiones arbitrarias o discriminatorias, y la falta de transpa-
rencia de la IA – tal y como hemos visto en el ejemplo expuesto – dificulta la identificación y
prevención de dichos riesgos.
VOLVER AL ÍNDICE 82
6
Determinación de los deberes
de diligencia del profesional en
cuanto usuario de IA
En el contexto de la intervención sanitaria asistencial con el concurso
de robots y sistemas inteligentes, autónomos o no, pueden producirse
lesiones o la muerte de los pacientes como consecuencia de procesos
decisionales propuestos o ejecutados por ellos.
Estos eventos están recogidos como el resultado típico de algunos delitos descritos en el Código
Penal, tanto dolosos como imprudentes (así, los delitos de homicidio y de lesiones).
MUERTE O
LESIONES EN
LOS PACIENTES
VOLVER AL ÍNDICE 83
Una gran preocupación es
cuándo se podrá imputar
al médico o a otros pro-
fesionales de la Salud un
resultado recogido en un
tipo de lo injusto de la ley
penal, como son la muer-
te o lesiones del paciente,
por el incumplimiento de
deberes de diligencia
Como se ha indicado más arriba, no debe olvidarse que el sistema de IA puede llegar a
conclusiones erróneas, al poder procesar un volumen elevado de datos del paciente
(y de otros) con cálculos estadísticos y probabilísticos muy variados. Por otro lado, el sistema,
si bien puede explicar –por lo general satisfactoriamente- las conclusiones a las que ha llegado,
no ocurre lo mismo sobre cómo ha llegado a esas mismas conclusiones, cuál ha sido la lógica
del proceso seguida. Simplificando la cuestión, o centrándonos sólo en este aspecto que gira en
torno a los deberes de cuidado del profesional o, mejor, en torno a su infracción respecto a la
asunción –negligente- de las propuestas del sistema, podemos intentar apuntar a cómo averi-
guar cuál es el cuidado debido en cada situación concreta.
En este punto habrá que recordar también la decisiva importancia que desempeña el riesgo
permitido para modular el cuidado debido63; desde él debe tomarse el punto de partida. La
doctrina elaborada sobre esta figura resultaría plenamente aplicable a estas situaciones, siendo
especialmente relevante determinar hasta dónde llega el límite máximo del riesgo permitido. Al
presentar a continuación nuestra propuesta somos también conscientes de que el Derecho Pe-
nal debe satisfacer una función preventiva, especialmente recomendable y creemos
que también factible en relación con las tecnologías.
El Derecho Penal
debe satisfacer una
función preventiva,
especialmente re-
comendable y cree-
mos que también
factible en relación
con las tecnologías
VOLVER AL ÍNDICE 84
Probablemente, en un futuro no muy lejano habrá que contar con una fuerte intervención
administrativa, reforzada por normas que articulen el funcionamiento permitido –au-
torizado- de los sistemas de IA, modulado conforme a las características particulares que pre-
senten y a las funciones específicas que vayan a realizar. Quiere decirse con esto que el marco
en el que debería ajustarse el espacio para el riesgo permitido en las decisiones e interven-
ciones sustentadas en la IA habría de construirse sobre una estructura próxima a la idea del
compliance, que constituye el fundamento de la responsabilidad penal de las personas
jurídicas para una gran parte de la doctrina penal64.
COMPLIANCE EN SALUD:
ESTRUCTURAS Y PROCEDIMENTOS
Gestión del
riesgo + Prevención de
toma de decisiones
rutinarias y no validadas
VOLVER AL ÍNDICE 85
La valoración positiva o acreditación oficial daría lugar a la autorización de la uti-
lización pública o privada del sistema de IA, indicando las revisiones y validaciones de
mantenimiento periódicas que deberían realizar los usuarios o establecer sus empresas u or-
ganizaciones, sobre las conclusiones y propuestas de aquél; y señalando también las funciones
específicas para las que hubiera sido acreditado y a las cuales debería limitarse el sistema.
CONFIGURACIÓN
DE ESTÁNDARES
PRACTICABLES
EN SITUACIONES
PREDECIBLES
La dificultad de ofrecer criterios practicables y más precisos empieza precisamente aquí, al pre-
sentarse en la realidad variables de difícil subsunción normativa. Ello nos devuelve a los
criterios normativos propios de la imprudencia, como el prototipo del hombre sensato y respon-
sable y el principio de confianza, principalmente65. Sin poder entrar ahora mucho más allá en
el contenido de estos principios66, podemos apuntar algunas observaciones que relativizan o al
menos cuestionan su traslado al escenario de la IA.
VOLVER AL ÍNDICE 86
De este modo se reincorpora a este escenario otro elemento normativo más que se mueve en la
esfera de la acción –diligente- (no de la imputación objetiva del resultado). Sin embargo, lo que
en realidad preocupa en relación con el sistema automatizado inteligente es que éste cometa
un error que pueda producir un daño a una persona –a un paciente-, pues no parece que
aquél sea capaz de conocer no sólo el contenido del cuidado debido, es decir, de un elemento
normativo, sino, además, de valorarlo como tal, para lo que solo son aptos los seres humanos,
al menos en la actualidad; o, incluso, de que sea capaz de actuar de forma contraria a la norma,
si su programación funciona conforme a cómo fue diseñada.
Por tanto, el principio de confianza, cuando menos según su intelección tradicional, decaería
para el médico cuando viera el indicio de un error, que es un presupuesto meramente
fáctico y objetivo, inicialmente valorativamente neutral, todavía no normativo68.
En segundo lugar, para que el sujeto humano pueda valorar el indicio de ese error ha de
empezar por revisar, examinar y evaluar la conclusión o propuesta decisionales del
sistema, de otro modo los indicios no llegarían a poder apreciarse y motivar al actuante a to-
mar sus propias decisiones frente a aquél.
La pregunta que surge inmediatamente es si con este planteamiento las grandes expectativas
depositados en la IA en general y para el ejercicio de la Medicina en particular no se
verán disminuidas y con ello frustradas hasta cierto punto, al sugerir una constante acti-
vidad de revisión y validación.
REVISIÓN Y Margen de
INTELIGENCIA
ARTIFICIAL + VALORACIÓN
POR EL
PROFESIONAL
automatización
asumible en
cada situación
VOLVER AL ÍNDICE 87
A esta hipotética objeción se puede
oponer, en primer lugar, que no tiene
por qué ser siempre éste el proceder
correcto. Pero si es cierto que al en-
frentarnos a tecnologías en constan-
te desarrollo y perfeccionamiento, las
máximas de experiencia desempeña-
rán una relevante función a la hora de
señalar el cuidado debido, que apela-
rá fundamentalmente a la figura ideal
del hombre sensato y responsable
y ayudará a determinar el mar-
gen de automatización asumible
en cada situación y la relajación
progresiva de esta prevención a
medida de que se refuerce el per-
feccionamiento del sistema de IA en
cuestión y sea más confiable69.
No cabe señalar en el estado actual de la tecnología pautas más precisas que den mayor segu-
ridad al profesional actuante ni al juzgador sentenciador, en su caso; así ocurre siempre que se
transitan nuevos caminos.
De todos modos, nos parece interesante traer aquí algunas reflexiones y propuestas, que vi-
niendo de instituciones en principio ajenas al pensamiento jurídico, pretenden introducir me-
canismos de seguridad en torno a la evaluación y validación de estos instrumentos
automatizados, y pueden aportar referencias para los problemas acabados de exponer.
VOLVER AL ÍNDICE 88
7
En busca de una
inteligencia segura
VOLVER AL ÍNDICE 89
Ante este escenario, podría imaginarse una deriva de los usuarios de los servicios de Salud ha-
cia la ocultación deliberada de sus datos sanitarios, que no parece admisible en nuestro orde-
namiento jurídico72, con tal de no ser evaluados por dicho “algoritmo de la muerte”.
VOLVER AL ÍNDICE 90
ción sanitaria de los pacientes. Como adelantábamos más arriba, pese a las dificultades que
puede presentar la implementación de este sistema de acreditación y validación es la vía más
adecuada para controlar y minimizar los riesgos de daños provenientes de sistemas
inteligentes.
En este contexto, la literatura aboga por avanzar hacia una validación dinámica, que
tenga presentes los datos con los que contamos antes de permitir la comercialización de una
herramienta, pero que realice un seguimiento atento de la misma después de su introducción
en el mercado77. Del documento elaborado por la FDA, destaca también el acercamiento a una
regulación basada en la categorización del riesgo, es decir, el sistema de IA sería catego-
rizado en una de las cuatro categorías de riesgo –de mayor a menor– en función del contexto
clínico en el que se implementa; contexto definido a partir de las variables del estado de Salud
o condición de los pacientes a atender –crítica, grave o menos grave– y de la importancia de la
información suministrada por la IA para la toma de la decisión clínica –desde el tratamiento o
diagnóstico a la dirección o la mera información de la gestión clínica–.
+
REGULACIÓN BASADA VALIDACIÓN DINÁMICA
EN LA CATEGORIZACIÓN (seguimiento tras su
DEL RIESGO introducción)
VOLVER AL ÍNDICE 91
En esta propuesta vemos cómo sigue siendo fundamental para su encaje en las categorías jurí-
dicas analizadas más arriba, establecer quién determina el nivel de riesgo que se atribuye
al sistema inteligente ante de su introducción en el mercado y qué margen de discrecionali-
dad queda al profesional para decidir si acepta o rectifica sus conclusiones o propuestas.
Un último aspecto que, a nuestro parecer, debería ser valorado, dado el papel fundamental que
desempeñan los Comités de Ética en el contexto de nuestro Sistema Nacional de Salud, es que
para garantizar la seguridad de los pacientes y usuarios, de un lado, y para aprovechar
las oportunidades de mejora de los procesos y la atención clínica que la explotación
automatizada de los datos almacenados puede proporcionarnos, del otro lado, se ha subraya-
do la necesidad de aliarse y trabajar conjuntamente con los Comités de Ética78, aunque
haya que reconocer que se mueven en entornos de difícil encaje con la supervisión técnica de
la actividad asistencial.
ATENCIÓN COMITÉS
CLÍNICA ÉTICOS
VOLVER AL ÍNDICE 92
8
Conclusiones
• La digitalización de la práctica clínica es conditio sine qua non para la toma de de-
cisiones automatizadas y, desde luego, sería deseable que se revertiesen las ten-
dencias que merman el tiempo dedicado a la atención directa del paciente en la
consulta y que la progresiva automatización contribuyese a restaurar la valiosa co-
nexión y confianza entre pacientes y médicos, dado que el tiempo es esencial para
la calidad de la atención que reciben los pacientes y para sus resultados de Salud.
• Ante la llegada de sistemas algorítmicos cada vez más complejos que aborden una
mayor cantidad de variables, parece razonable pensar que sus decisiones no serán
siempre aprehensibles para los seres humanos en ciertos sentidos. Esta opacidad
puede representar una dificultad añadida a la prevención y análisis de la introduc-
ción de sesgos que deriven en decisiones arbitrarias o discriminatorias.
VOLVER AL ÍNDICE 93
• El futuro de la IA está lleno de incógnitas desconocidas79, sin embargo, no puede
haber futuro para las tecnologías emergentes en el campo de la Salud sin seguri-
dad ni fiabilidad, como tampoco en detrimento de los derechos y libertades de los
pacientes que, como ciudadanos que son, deben continuar siendo protegidos (au-
tonomía, intimidad y datos personales, información, igualdad de oportunidades,
no discriminación o estigmatización); de modo semejante que los profesionales de
la Salud mantengan su capacidad de iniciativa como expresión de la cualificación
reconocida por el Estado para el ejercicio de su profesión; sin que valga frente a
ellos la anteposición absoluta de otros intereses sociales que auguran las tecno-
logías emergentes, como la IA80. Sólo así podrán conjurarse las tendencias hacia
un Estado totalitario, dominado por un determinismo tecnocrático, excluyente de
cualquier espacio de libertad y de responsabilidad individual81. Las promesas de la
Inteligencia Artificial no deben convertirse en excepción.
Referencias
1. Para ser más precisos, son los dos factores asociados a lo que en la actualidad entendemos por inteligencia artificial.
La IA es un concepto que ha evolucionado y variado con el paso del tiempo, cuyas promesas y realidades siempre
han estado vinculadas a los campos de la medicina y la Salud, especialmente por medio de los sistemas informáticos
de soporte a la decisión clínica. Para una revisión histórica de estos sistemas anterior a los avances a los que nos
referimos en este artículo véase: Bonis J, Sancho JJ, Sanz F. Sistemas informáticos de soporte a la decisión clínica.
Med Clin (Barc) [Internet]. 2004 Feb 15 [consultado 2019 Apr 22];122:39–44. Disponible en: http://www.elsevier.
es/es-revista-medicina-clinica-2-articulo-sistemas-informaticos-soporte-decision-clinica-13057545
2. Cotino L. Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamen-
tales, Dilemata, 2017;24(0):p.132.
3. Garriga Domínguez A. La elaboración de perfiles y su impacto en los derechos fundamentales. Una primera aproxi-
mación a su regulación en el reglamento general de protección de datos de la Unión Europea. Derechos y Lib, Rev del
Inst Bartolomé las Casas. 2018;38:p.111.
4. Yeung K. Algorithmic regulation: A critical interrogation. Regul Gov. 2018;12(4):p.506.
5. Del Río Solá ML, López Santos JM, Vaquero Puerta C. La inteligencia artificial en el ámbito médico. Rev Española In-
vestig Quirúrgica. 2018;21(3):p.113.
6. Boden MA. Inteligencia Artificial. Madrid: Turner; 2017. p.11.
7. El aprendizaje automático tiene tres grandes categorías: aprendizaje supervisado, aprendizaje no supervisado y
aprendizaje por refuerzo.
8. Broussard M. Artificial Unintelligence: How Computers Misunderstand the World. MIT Press; 2019. 237 p.
VOLVER AL ÍNDICE 94
9. Obermeyer Z, Emanuel EJ. Predicting the Future — Big Data, Machine Learning, and Clinical Medicine. N Engl J Med.
2016;375(13):p.1217.
10. Boden MA. Inteligencia Artificial. p. 84 y ss.
11. Esteva A, Robicquet A, Ramsundar B, Kuleshov V, Depristo M, Chou K, et al. A guide to deep learning in healthcare.
Nat Med. 2019;25(1):p.24.
12. Cabitza F, Ciucci D, Rasoini R. A Giant with Feet of Clay: On the Validity of the Data that Feed Machine Learning in
Medicine. In: Cabitza F, Batini C, Magni M, editors. Organizing for the Digital World. Cham: Springer International
Publishing; 2019. p. 122.
13. Destacamos como referencias dos artículos de revisión para conocer el estado del arte: Yu K-H, Beam AL, Kohane IS.
Artificial intelligence in healthcare. Nat Biomed Eng [Internet]. 2018;2(10):719–31.; y Rajkomar A, Dean J, Kohane
I. Machine Learning in Medicine. N Engl J Med [Internet]. 2019;380(14):1347–58
14. V. más ampliamente sobre la aplicación de la IA a la investigación biomédica en varios campos: AAVV, en Nordlinger,
B, Villani, C, (Dirs.), Santé et intelligence artificielle, CNRS Éds., Paris, 2018, p. 241-330.
15. Sobrepasan igualmente el objeto de este estudio otros campos de la IA asociados a la Salud y la medicina y que tam-
bién pueden valerse de estos sistemas algorítmicos en su relación con el entorno. Nos referimos concretamente a la
robótica, la rama corpórea de la IA, que cuenta con significativos avances, por ejemplo, en cirugía con el desarrollo
de robots quirúrgicos, en el ámbito de la Salud mental con innovaciones que van desde robots sociales en el cuidado
de la demencia o el trastorno del autismo, hasta robots para trastornos sexuales, o en el ámbito de los cuidados con
robots asistentes para personas dependientes.
16. Weng SF, Vaz L, Qureshi N, Kai J. Prediction of premature all-cause mortality: A prospective general population cohort
study comparing machine-learning and standard epidemiological approaches. PLoS One. 2019;14(3):1–22.
17. Yu K-H, Beam AL, Kohane IS. Artificial intelligence in healthcare. Nat Biomed Eng. 2018;2(10):p.720.
18. Rodriguez-Ruiz A, Lång K, Gubern-Merida A, Broeders M, Gennaro G, Clauser P, et al. Stand-Alone Artificial Intelligen-
ce for Breast Cancer Detection in Mammography: Comparison With 101 Radiologists. JNCI J Natl Cancer Inst. 2019
19. Romeo Casabona CM. Revisión de las categorías jurídicas de la normativa europea ante la tecnología del big data
aplicada a la Salud, Revista de Derecho y Genoma Humano / Law and the Human Genome, en prensa.
20. Proceso que se vale de la estadística y de las ciencias de la computación dirigido al hallazgo de patrones en grupos
de datos masivos.
21. art. 11 CDHB (Convenio de Oviedo) y el art. 4 de su Protocolo Adicional, relativo a Genetic Testing for Health Purpo-
ses, de 2008; art. 11 de la Declaración Universal sobre Bioética y Derechos Humanos, aprobada por la Conferencia
General de la UNESCO el 19 de octubre de 2005.
22. V. art. 14 de la Constitución y arts. 2, a) y 58.6 de la LIB.
23. Sobre las características y potencialidades de los big data v. Delort, P. Le big data, Presses Universitaires de France,
Paris, 2015, p. 41 y ss.
24. V. más ampliamente sobre el concepto de dato de Salud en el RGPD, Romeo Casabona CM. Revisión de las categorías
jurídicas de la normativa europea ante la tecnología del big data aplicada a la Salud, cit.
25. Reglamento General sobre la Protección de Datos Personales, 2016/679, de 27 de abril de 2016.
26. Ley Orgánica de Protección de Datos Personales y Garantías y Derechos Digitales (LOPDGDD) 2/2018, de 5 de diciem-
bre.
27. V. más ampliamente sobre el régimen de los datos con fines de investigación biomédica o de Salud, Romeo Casabona
CM. El nuevo marco normativo europeo sobre protección de datos personales y el estatuto de las muestras biológicas
humanas y de los biobancos para investigación biomédica, en Comunicaciones en Propiedad Industrial y Derecho de
la Competencia. 2019;86:215-238; el mismo, The new European legal framework on personal data protection and
the legal status of biological samples and biobanks for biomedical research purposes in Spanish Law, en Slokenber-
ga, S. Tzortzatou, O. and Reichel, J. (Eds.), Article 89 of the General Data Protection Rule and biobanking in Europe,
Springer, en prensa.
28. Ferretti A, Schneider M, Blasimme A. Machine learning in medicine: Opening the New Data Protection Black Box. Eur
Data Prot Law Rev. 2018;4(3):320–32.
VOLVER AL ÍNDICE 95
29. V. RGPD, art. 22; Ley 41/2002, de 14 de noviembre, básica reguladora de la autonomía del paciente y de derechos y
obligaciones en materia de información y documentación clínica (LAP), arts. 4.1 y 3, y 5.
30. RGPD, art. 13.2, f). Subrayado en el texto añadido.
31. Ley 41/2002, art. 4.3.
32. Así lo entienden Zerilli J, Knott A, Maclaurin J, Gavaghan C. Transparency in Algorithmic and Human Decision-Making:
Is There a Double Standard? Philos Technol. 2018;1–23.
33. V. European Group on Ethics in Science and New Technologies (EGE). Future of Work? Future of Society?, European
Commission, Brussels, 2018.
34. Monje B, Tovar Pozo M, Campos Fernandez de Sevilla M, Tutau Gomez F. Errar ya no es solo humano. Rev OFIL-
ILAPHAR. 2019; first on l:1–1.
35. European Group on Ethics in Science and New Technologies (EGE), Artificial Intelligence, Robotics and ‘Autonomous’
Systems, European Commission, Brussels, 2018 p. 9 y s., para el cual la responsabilidad moral, sea cual fuere el sen-
tido que se le confiera, no puede ser atribuida o trasladada a la tecnología autónoma.
36. Floridi L. What the Near Future of Artificial Intelligence Could Be. Philos Technol. 2019;32(1):p. 3.
37. Pérez-Santonja T, Gómez-Paredes L, Álvarez-Montero S, Cabello-Ballesteros L, Mombiela-Muruzabal M. Historia clínica
electrónica: evolución de la relación médico-paciente en la consulta de Atención Primaria. Semergen. 2017;43(3):175–
81.
38. Tai-Seale M, Olson CW, Li J, Chan AS, Morikawa C, Durbin M, et al. Electronic Health Record Logs Indicate That Phy-
sicians Split Time Evenly Between Seeing Patients And Desktop Medicine. Health Aff. 2017;36(4):655–62.
39. Gardner RL, Cooper E, Haskell J, Harris DA, Poplau S, Kroth PJ, et al. Physician stress and burnout: the impact of
health information technology. J Am Med Inform Assoc. 2019;26(2):106–14.
40. Topol EJ. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books, Inc.; 2019. 400
p.
41. Según Núñez Reiz A, Armengol de la Hoz MA, Sánchez García M. Big Data Analysis y Machine Learning en medicina
intensiva. Med Intensiva. 2018
42. Como muestra de ello puede consultarse el gráfico elaborado por el SAE International (Sociedad de Ingenieros de
Automoción) sobre los niveles de automatización de la automoción – desde 0 a 5 – en su informe Taxonomy and De-
finitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles J3016_201806 (15/06/2018):
https://saemobilus.sae.org/content/j3016_201806
43. La elaboración de perfiles también ha tenido acogida en el RGPD. Recogemos ahora su definición: “«Elaboración de
perfiles»: toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para
evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos re-
lativos al rendimiento profesional, situación económica, Salud, preferencias personales, intereses, fiabilidad, compor-
tamiento, ubicación o movimientos de dicha persona física” (art. 4.4).
44. V. Ley 41/2002, art. 8, relativo al consentimiento informado. El RGPD enfatiza la importancia que se otorga al con-
sentimiento, que pasa por su propia definición (art. 4.11); v. también el cndo. 35 y art. 9.2, a), entre otros.
45. Romeo Casabona CM (Coord.), Nicolás Jiménez P, De Miguel Beriain I. Retos éticos y necesidades normativas en la
actividad asistencial en Medicina Personalizada de Precisión. Fundación Instituto Roche. 2018; p. 37.
46. RGPD, art. 22.1: “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el trata-
miento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significati-
vamente de modo similar”. Mientras que el apartado 2º admite que pueda prestar su consentimiento el interesado a
esta forma decisional o que medie un contrato entre aquél y el responsable del tratamiento, el apartado 3º excluye
la automatización aunque medie el consentimiento o el contrato indicados cuando se trata de datos especiales (art.
9.1), entre los que figuran los datos de Salud y los genéticos. Este último apartado establece que el responsable del
tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del
interesado, como mínimo el derecho a obtener intervención humana por parte del responsable, a expresar su punto
de vista y a impugnar la decisión. V. sobre este particular Maier N, Ossoining V. “Einzelne Bereiche der Datenverar-
beitung”, en Rossnagel, A. (Hrsg.), Europäische Datenschutz-Grundverordung, Nomos Verlag, Baden-Baden, 2017; p.
226, aunque no tienen en cuenta la excepción prevista en el apdo. 3 al consentimiento del interesado, como se acaba
de indicar.
VOLVER AL ÍNDICE 96
47. En este sentido, Gil González E. Big data, privacidad y protección de datos. AEPD y BOE; Madrid, 2016; p. 42.
48. V. European Group on Ethics in Science and New Technologies (EGE), Artificial Intelligence, Robotics and ‘Autono-
mous’ Systems, European Commission, Brussels, 2018 p. 15 y 17.
49. Gil González E. Big data, privacidad y protección de datos. AEPD y BOE; Madrid, 2016; p. 42 y ss.
50. RGPD, art. 22.3: “…el responsable del tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y
libertades y los intereses legítimos del interesado, como mínimo el derecho a obtener intervención humana por parte
del responsable, a expresar su punto de vista y a impugnar la decisión”.
51. Romeo Casabona CM (Coord.), Nicolás Jiménez P, De Miguel Beriain I. Retos éticos y necesidades normativas en la
actividad asistencial en Medicina Personalizada de Precisión. Fundación Instituto Roche. 2018; p. 25 y ss.
52. Romeo Casabona CM (Coord.), Nicolás Jiménez P, De Miguel Beriain I. Retos éticos y necesidades normativas en la
actividad asistencial en Medicina Personalizada de Precisión. Fundación Instituto Roche. 2018;p. 61 y ss.
53. Cristea Uivaru L. La protección de datos sensible: Historia Clínica Digital y Big Data en Salud. J.B. Bosch Editor; Bar-
celona, 2018; p. 251.
54. Cristea Uivaru L. La protección de datos sensible: Historia Clínica Digital y Big Data en Salud, ibídem.
55. Caruana R, Lou Y, Gehrke J, Koch P, Sturm M, Elhadad N. Intelligible Models for HealthCare: Predicting Pneumonia
Risk and Hospital 30-day Readmission. In: Proceedings of the 21th ACM SIGKDD International Conference on Knowle-
dge Discovery and Data Mining. New York, NY, USA: ACM; 2015. p. 1721–30.
56. Para ahondar en cuestiones sobre opacidad de los modelos algorítmicos v. Ferretti A, Schneider M, Blasimme A. Ma-
chine learning in medicine: Opening the New Data Protection Black Box. Eur Data Prot Law Rev. 2018;4(3):320–32.
57. Un detallado resumen de este caso en De Miguel Beriain I. Does the use of risk assessments in sentences respect the
right to due process? A critical analysis of the Wisconsin v. Loomis ruling. Law, Probab Risk. 2018;17(1):45–53.
58. Sentencia 13 de julio de 2016: State v. Loomis, 881, N.W.2d 749, 7532 (Wis, 2016), caso Wisconsin vs. Loomis.
59. Semejante al derecho fundamental a la tutela judicial efectiva del Derecho español, art. 24 CE.
60. Lo que, ciertamente, es muy objetable, pues generó indefensión en el condenado. V. comentarios críticos sobre esta
sentencia: Romeo Casabona CM. Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de
seguridad. Rev Penal. 2018;42:165–79.
61. Es un asunto lo suficiente complejo como para ser tratado monográficamente. V. Hallevy G. Liability for Crimes Invol-
ving Artificial Intelligence Systems. Springer; Heidelberg, 2015; pássim: Romeo Casabona CM. La atribución de res-
ponsabilidad penal por los hechos cometidos por robots y otros sistemas inteligentes autónomos, Revista de Derecho
Penal, Rubinzal Culzoni, Rosario, en prensa.
62. No podemos entrar a discutir en este estudio cómo podría resolverse la responsabilidad civil extracontractual, pero
podemos adelantar que no hallamos dificultades en su apreciación, dadas las variantes que presenta: puede ser ob-
jetiva y puede recaer sobre terceros ajenos a la acción negligente. V. Romeo Casabona CM. La atribución de respon-
sabilidad penal por los hechos cometidos por robots y otros sistemas inteligentes autónomos, cit.
63. V. más ampliamente sobre esta categoría conceptual Romeo Casabona CM en Romeo Casabona CM, Sola Reche E,
Boldova Pasamar MA, (Coords.). Derecho Penal, Parte General. Introducción. Teoría Jurídica del Delito, 2ª ed., Coma-
res, Granada, 2016, p. 138 y s.; el mismo, Conducta peligrosa e imprudencia en la sociedad de riesgo. Comares (2ª
ed.); Granada, 2016;p. 180 y ss.
64. Sobre esta cuestión, que no deja de ser debatida en la doctrina penal, v. Boldova Pasamar MA en Romeo Casabona
CM, Sola Reche E, Boldova Pasamar MA, (Coords.). Derecho Penal, Parte General. Introducción. Teoría Jurídica del
Delito. Comares (2ª ed.); Granada, 2016;pp. 352 y s.
65. Perin A. Estandarización y automatización en medicina: El deber de cuidado del profesional entre la legítima confianza
y la debida prudencia. Revista Chilena de Derecho y Tecnología. 2019;8(1):3-28 (p. 14 y s.)
66. Sobre lo anterior v. más ampliamente en Romeo Casabona CM. El Médico y el Derecho Penal, T. II, V. 1º Los proble-
mas penales actuales de la Biomedicina. Rubinzal – Culzoni; Santa Fe, 2011; p. 263 y ss.
67. Perin A. Estandarización y automatización en medicina: El deber de cuidado del profesional entre la legítima confianza
y la debida prudencia, p. 15.
VOLVER AL ÍNDICE 97
68. Romeo Casabona, CM. en Romeo Casabona CM, Sola Reche E, Boldova Pasamar MA, (Coords.). Derecho Penal, Parte
General. Introducción. Teoría Jurídica del Delito, p. 140.
69. V. Perin A. Estandarización y automatización en medicina: El deber de cuidado del profesional entre la legítima con-
fianza y la debida prudencia, pp. 18 y s., quien va aproximadamente en la misma dirección argumental, aunque
otorga, incluso ahora, más espacio al principio de confianza, incluso para las expectativas de cuidado que califica de
“atípicas”. Coincidimos con él en que las respuestas a esta cuestión no deben buscarse por la vía de lege ferenda.
70. Mukherjee S. ¿Podremos lograr que las computadoras presientan nuestra muerte? The New York Times. 2018; Dis-
ponible en: https://www.nytimes.com/es/2018/01/08/podremos-lograr-que-las-computadoras-presientan-nues-
tra-muerte/
71. Avati A, Jung K, Harman S, Downing L, Ng A, Shah NH. Improving palliative care with deep learning. BMC Med Inform
Decis Mak. 2018;18(4):122.
72. Debidamente argumentado por Sánchez Caro J. Autonomía del paciente y ocultación de datos sanitarios. DS Derecho
y Salud. 2016;26(Extra): p. 100 y ss.
73. Basta recordar que debido a un fallo informático unas 450.000 mujeres en Inglaterra se vieron privadas de someterse
a una mamografía entre 2009 y 2018, lo que podría haber acortado la vida de entre 135 y 270 mujeres: Hasta 270
posibles muertes por un fallo en la programación de mamografías en Reino Unido. Diario El Mundo (02/05/2018):
https://www.elmundo.es/ciencia-y-Salud/Salud/2018/05/02/5ae9f3a322601dab098b45a5.html
74. Kim DW, Jang HY, Kim KW, Shin Y, Park SH. Design characteristics of studies reporting the performance of artificial
intelligence algorithms for diagnostic analysis of medical images: Results from recently published papers. Korean J
Radiol. 2019;20(3):405–10.
75. En el año 2018 la norteamericana FDA –Food and Drug Administration– dio permiso a una compañía llamada IDx para
comercializar un dispositivo de diagnóstico de oftalmología – retinopatía diabética – en el que no está involucrada
la opinión de un médico. Este es el primer dispositivo aprobado por la FDA para realizar diagnósticos médicos por
IA. Xataka Ciencia (03/05/2018): https://www.xatakaciencia.com/tecnologia/este-es-el-primer-dispositivo-aproba-
do-por-la-fda-para-realizar-diagnosticos-medicos-por-ia
76. Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software
as a Medical Device (SaMD) - Discussion Paper and Request for Feedback (02/04/2019). Disponible en: https://www.
fda.gov/media/122535/download
77. Tal y como plantea De Miguel Beriain I. Medicina personalizada, algoritmos predictivos y utilización de sistemas de
decisión automatizados en asistencia sanitaria. Problemas éticos. Dilemata. 2019; p. 96 y ss.
78. Así lo ven Núñez Reiz A, Armengol de la Hoz MA, Sánchez García M. Big Data Analysis y Machine Learning en medicina
intensiva, en p. 7.
79. Concluye Floridi L. What the Near Future of Artificial Intelligence Could Be, en p. 13.
80. Recordemos el Convenio de Oviedo: “Artículo 2. Primacía del ser humano. El interés y el bienestar del ser humano
deberán prevalecer sobre el interés exclusivo de la sociedad o de la ciencia.”
81. Asumimos así estas reflexiones de De Siqueira y Perin en Perin A. Estandarización y automatización en medicina: El
deber de cuidado del profesional entre la legítima confianza y la debida prudencia, p. 21.
VOLVER AL ÍNDICE 98
Bibliografía
• Avati A, Jung K, Harman S, Downing L, Ng A, Shah NH. Improving palliative care with deep learning. BMC Med Inform
Decis Mak. 2018;18(4): p. 55-64.
• Boden MA. Inteligencia Artificial. Madrid: Turner; 2017. 191 p.
• Bonis J, Sancho JJ, Sanz F. Sistemas informáticos de soporte a la decisión clínica. Med Clin (Barc) [Internet].
2004;122:39–44.
• Broussard M. Artificial Unintelligence: How Computers Misunderstand the World. MIT Press; 2019. 237 p.
• Cabitza F, Ciucci D, Rasoini R. A Giant with Feet of Clay: On the Validity of the Data that Feed Machine Learning in
Medicine. In: Cabitza F, Batini C, Magni M, editors. Organizing for the Digital World. Cham: Springer International Pu-
blishing; 2019. p. 121–36.
• Caruana R, Lou Y, Gehrke J, Koch P, Sturm M, Elhadad N. Intelligible Models for HealthCare: Predicting Pneumonia Risk
and Hospital 30-day Readmission. In: Proceedings of the 21th ACM SIGKDD International Conference on Knowledge
Discovery and Data Mining. New York, NY, USA: ACM; 2015. p. 1721–30.
• Cotino L. Big data e inteligencia artificial . Una aproximación a su tratamiento jurídico desde los derechos fundamenta-
les Big Data and Artificial Intelligence . An Approach from a Legal Point of View about Fundamental Rights. Dilemata.
2017;24(0):131–50.
• Cristea Uivaru L. La protección de datos sensible: Historia Clínica Digital y Big Data en Salud. J.B. Bosch Editor; Bar-
celona, 2018; 360 p.
• De Miguel Beriain I. Does the use of risk assessments in sentences respect the right to due process? A critical analysis
of the Wisconsin v. Loomis ruling. Law, Probab Risk. 2018;17(1):45–53.
• De Miguel Beriain I. Medicina personalizada, algoritmos predictivos y utilización de sistemas de decisión automatizados
en asistencia sanitaria. Problemas éticos. Dilemata. 2019;30:93–109.
• Del Río Solá ML, López Santos JM, Vaquero Puerta C. La inteligencia artificial en el ámbito médico. Rev española In-
vestig quirúrgica. 2018;21(3):113–6.
• Delort, P. Le big data, Presses Universitaires de France, Paris, 2015; 128 p.
• Esteva A, Robicquet A, Ramsundar B, Kuleshov V, DePristo M, Chou K, et al. A guide to deep learning in healthcare.
Nat Med. 2019;25(1):24–9.
• European Group on Ethics in Science and New Technologies (EGE), Artificial Intelligence, Robotics and ‘Autonomous’
Systems, European Commission, Brussels, 2018
• Ferretti A, Schneider M, Blasimme A. Machine learning in medicine: Opening the New Data Protection Black Box. Eur
Data Prot Law Rev. 2018;4(3):320–32.
• Floridi L. What the Near Future of Artificial Intelligence Could Be. Philos Technol. 2019;32(1):1–15.
• Gardner RL, Cooper E, Haskell J, Harris DA, Poplau S, Kroth PJ, et al. Physician stress and burnout: the impact of heal-
th information technology. J Am Med Inform Assoc. 2019;26(2):106–14.
• Garriga Domínguez A. La elaboración de perfiles y su impacto en los derechos fundamentales. Una primera aproxima-
ción a su regulación en el reglamento general de protección de datos de la Unión Europea. Derechos y Lib Rev del Inst
Bartolomé las Casas. 2018;38:107–39.
• Gil González E. Big data, privacidad y protección de datos. AEPD y BOE; Madrid, 2016; 149 p.
• Hallevy G. Liability for Crimes Involving Artificial Intelligence Systems. Springer; Heidelberg, 2015
• Harvey H, Cabitza F. Algorithms are the new drugs? Reflections for a culture of impact assessment and vigilance. MCC-
SIS. 2018;281–5.
• Kim DW, Jang HY, Kim KW, Shin Y, Park SH. Design characteristics of studies reporting the performance of artificial
intelligence algorithms for diagnostic analysis of medical images: Results from recently published papers. Korean J
Radiol. 2019;20(3):405–10.
• Monje B, Tovar Pozo M, Campos Fernandez de Sevilla M, Tutau Gomez F. Errar ya no es solo humano. Rev OFIL-
ILAPHAR. 2019;first online:1–1.
VOLVER AL ÍNDICE 99
• Nordlinger B, Villani C, (Dirs.), Santé et intelligence artificielle, CNRS Éds., Paris, 2018; 416 p.
• Núñez Reiz A, Armengol de la Hoz MA, Sánchez García M. Big Data Analysis y Machine Learning en medicina intensiva.
Med Intensiva. 2018;first online:1–11.
• Obermeyer Z, Emanuel EJ. Predicting the Future — Big Data, Machine Learning, and Clinical Medicine. N Engl J Med.
2016;375(13):1216–9.
• Pérez-Santonja T, Gómez-Paredes L, Álvarez-Montero S, Cabello-Ballesteros L, Mombiela-Muruzabal M. Historia clínica
electrónica: evolución de la relación médico-paciente en la consulta de Atención Primaria. Semergen. 2017;43(3):175–81.
• Perin A. Estandarización y automatización en medicina: El deber de cuidado del profesional entre la legítima confianza
y la debida prudencia. Revista Chilena de Derecho y Tecnología. 2019;8(1):3-28
• Rodriguez-Ruiz A, Lang K, Gubern-Merida A, Broeders M, Gennaro G, Clauser P, et al. Stand-Alone Artificial Intelligence
for Breast Cancer Detection in Mammography: Comparison With 101 Radiologists. JNCI J Natl Cancer Inst. 2019.
• Romeo Casabona CM. Revisión de las categorías jurídicas de la normativa europea ante la tecnología del big data apli-
cada a la Salud, Revista de Derecho y Genoma Humano / Law and the Human Genome, en prensa.
• Romeo Casabona CM. La atribución de responsabilidad penal por los hechos cometidos por robots y otros sistemas
inteligentes autónomos, Revista de Derecho Penal, Rubinzal Culzoni, Rosario, en prensa.
• Romeo Casabona CM. El nuevo marco normativo europeo sobre protección de datos personales y el estatuto de las
muestras biológicas humanas y de los biobancos para investigación biomédica, Comunicaciones en Propiedad Indus-
trial y Derecho de la Competencia. 2019;86:215-238.
• Romeo Casabona CM. Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad.
Rev Penal. 2018;42:165–79.
• Romeo Casabona CM, Sola Reche E, Boldova Pasamar MA, (Coords.). Derecho Penal, Parte General. Introducción.
Teoría Jurídica del Delito. Comares (2ª ed.); Granada, 2016; 363 p.
• Romeo Casabona CM (Coord.), Nicolás Jiménez P, De Miguel Beriain I. Retos éticos y necesidades normativas en la
actividad asistencial en Medicina Personalizada de Precisión. Fundación Instituto Roche. 2018
• Sánchez Caro J. Autonomía del paciente y ocultación de datos sanitarios. DS Derecho y Salud. 2016;26(Extra):93–102.
• Tai-Seale M, Olson CW, Li J, Chan AS, Morikawa C, Durbin M, et al. Electronic Health Record Logs Indicate That Physi-
cians Split Time Evenly Between Seeing Patients And Desktop Medicine. Health Aff. 2017;36(4):655–62.
• Topol EJ. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books, Inc.; 2019. 400 p.
• Weng SF, Vaz L, Qureshi N, Kai J. Prediction of premature all-cause mortality: A prospective general population cohort
study comparing machine-learning and standard epidemiological approaches. PLoS One. 2019;14(3):1–22.
• Yeung K. Algorithmic regulation: A critical interrogation. Regul Gov. 2018;12(4):505–23.
• Yu K-H, Beam AL, Kohane IS. Artificial intelligence in healthcare. Nat Biomed Eng. 2018;2(10):719–31.
• Zerilli J, Knott A, Maclaurin J, Gavaghan C. Transparency in Algorithmic and Human Decision-Making: Is There a Dou-
ble Standard? Philos Technol. 2018;first online:1-23.