A ÉTICA ///}
DA INTELIGÊNCIA
ARTIFICIAL
PRINCíPlOS, DESAFIOS E OPORTUNIDADES
LUCIANO FLORIDI I
ooooooooe••
oooooeo•o•••
PUCPRESS
UMA ESTRUTURA UNIFICADA
DE PRINCíPlOS ÉTICOS PARA A IA
4.0.Resumo
Nos capítulos anteriores,de 1 a 3, vimos como a IA é uma nova forma de
agência que pode lidar com tarefas e problemas de maneira eficaz, tendo em vista
um objetivo, sem qualquer necessidade de inteligência. Todo sucesso de qualquer
aplicativo de IA não muda o nível do que significa ser um agente inteligente. Em
vez disso, ele ignora completamente o nível. O sucesso dessa agência artificial é
cada vez mais facilitado pela circunscrição(ou seja, pela remodelação em contextos
amigáveis à IA) dos ambientes nos quais a IA opera. A desconexão entre agência
e inteligência e a circunscrição do mundo geram desafios éticos significativos, es-
pecialmente em relação à autonomia, confiança, equidade, explicabilidade, priva-
cidade, responsabilidade, transparência e viés (sim, mera ordem alfabética). Por
esse motivo, muitas organizações lançaram uma ampla gama de iniciativas para
estabelecerprincípios éticos para a adoção de IA socialmente benéfica depois que
os Princípios Asilomar de IA e a Declaração Montreal pelo Desenvolvimento Res-
ponsável da Inteligência Artificial foram publicados em 2017. Isso logo se tornou
uma indústria artesanal. Infelizmente, o grande volume de princípios propostos
corre o risco de sobrecarregar e confundir.
Este capítulo apresenta os resultados de uma análise comparativa de
vários dos mais importantes conjuntos de princípios éticos para a IA. Avalio
se esses princípios convergem em torno de um conjunto de princípios con-
sensuais ou se divergem com discordâncias significativassobre o que consti-
tui uma "IA ética".No capítulo, argumento que há muita sobreposição entre
os conjuntos de princípios analisados. Existe uma estrutura abrangente que
consiste em cincoprincípiosfundamentais para a IA ética. Quatro deles são
princípios fundamentais comumente usados na bioética: beneficência,não
maleficência,autonomia e justiça. Isso não é surpreendente quando a IA é
interpretada como uma forma de agência. E a coerência entre a bioética e
abordar a IA como uma
como evidência de que
vista
a ética da IA pode ser Os leitores que discordam podem achar
proveitoso.
nova forma de agência é encaixar mais facilmente
inteligente da IA poderia se
que uma interpretação do que na bioética. Acredito que
ética da virtude
em uma abordagemde em geral, a partir de uma perspectiva
a ética digital
abordar a ética da IA, e sendo uma possibilida-
virtude não é convincente, mas continua
de ética da objeçóes (Floridi, 2013).
para treinar minhas
de viável e este não é o lugar
análise é necessário acrescentar um novo
comparativa,
Com base na
A explicabilidade é entendida como a incorporação
princípio: explicabilidade.
aspectos epistemológicos de inteligibilidade —enquanto resposta à per-
tanto dos
"como isso funciona?" — quanto do sentido ético de prestação de contas
gunta
"quem é responsável pelo modo como isso
—enquanto resposta à pergunta
necessário porque a IA é uma nova forma
Klnciona?".O princípio adicional é
discussão sobre as implicações dessa
de agência.O capítulo termina com uma
criar leis, regras, padrões técnicos e
estrutura ética para os esforços futuros de
variedade de contextos.
boas práticas para a IA ética em uma ampla
4.1.Introdução: muitos princípios?
Como vimos nos capítulos anteriores, a IA já está causando um grande
impacto na sociedade, que só aumentará no futuro. As principais questões são
como, onde, quando e por quem o impacto da IA será sentido. Voltarei a esse
ponto no Capítulo 10.Aqui, gostaria de me concentrar em uma consequência
dessa tendência: muitas organizaçõeslançaram uma ampla gama de iniciativas
a fim de estabelecerprincípios éticos para a adoção de uma IA socialmente
benéfica. Infelizmente, o grande volume de princípios propostos — já mais
de 160 em 2020, de acordo com o Inventário Global de Diretrizes de Ética em
IA (Algorithm Watch, 2020)" da Algorithm Watch — corre o risco de sobre-
carregar e confundir. Isso apresenta dois problemas em potencial: se os vários
conjuntos de princípios éticos da IA forem semelhantes, teremos repetição e
redundância desnecessárias; no entanto, se eles forem significativamente di-
ferentes, a consequência será confusão e ambiguidade. O pior resultado seria
um "mercado de princípios", situação em que as partes interessadas podem fi-
car tentadas a "comprar" aqueles mais atraentes, como veremos no Capítulo 5.
Consulte também Jobin, lenca e Vayena (2019),
114
Como resolver esse problema de "proliferação de princípios"? Neste
capítulo, apresento e discuto os resultados de uma análise comparativa en-
tre vários conjuntos de princípios éticos mais importantes para a IA. Avalio
se esses princípios convergem em torno de um conjunto compartilhado de
princípios consensuais ou se divergem com discordâncias significativas so-
bre o que constitui uma "IA ética".A análise encontra muita sobreposição
entre os conjuntos de princípios avaliados. Isso leva à identificação de uma
estrutura abrangente que consiste em cincoprincípiosfundamentais para a
IA ética. Na continuação da discussão, observo as limitações e avalio as im-
plicaçóes dessa estrutura ética em relação a esforços futuros para criar leis,
regras, padrões e boas práticas para a IA ética em vários contextos diferentes.
4.2. Uma estrutura unificada de cinco princípios para uma IA ética
Vimos no Capítulo 1 que a IA se estabeleceu como um campo de pes-
quisa académica na década de 1950 (McCarthy et al., 2006 [ 1955]). O deba-
te ético é quase tão antigo quanto esse (Wiener, 1960; Samuel, 1960b). Mas
foi somente nos últimos anos que avanços impressionantes nas capacidades
e aplicações dos sistemas de IA colocaram em destaque as oportunidades
e os riscos da IA para a sociedade (Yang et al., 2018). A crescente demanda
por reflexão e políticas claras sobre o impacto da IA na sociedade gerou um
excesso de iniciativas. Cada iniciativa a mais acrescenta uma declaração de
princípios, valores ou doutrinas para orientar o desenvolvimento e a adoçáo
da IA. Tem-se a impressão de que em algum momento aconteceu uma es-
calada do tipo "Me too" (eu também). Nenhuma organização poderia ficar
sem alguns princípios éticos para a IA, e aceitar os que já estavam disponí-
veis parecia deselegante, pouco original ou carente de liderança.
A atitude "Me too" foi seguida por outra do tipo "meu e somente meu".
Anos depois, o risco ainda é de repetição e sobreposição desnecessárias se
os vários conjuntos de princípios forem semelhantes, ou de confusão e am-
biguidade se forem diferentes. Em qualquer uma das hipóteses, o desenvol-
vimento de leis, regras, padrões e boas práticas para garantir que a IA seja
socialmente benéfica pode ficar sendo adiado, uma vez que é preciso nave-
gar pela profusão de princípios e declarações criados por um conjunto cada
vez maior de iniciativas, Chegou a hora de analisar comparativamente esses
documentos, incluindo uma avaliação sobre se eles convergem ou divergem
115
em uma estrutura uni-
convergência, se é possível sintetizá-los
e, em caso de
Tabela 4.1 mostra seis iniciativas conhecidas e criadas com o inte_
ficada.A foram escolhidas
como
benéfica e que
resse de haver uma IA socialmente
informativas para se fazer uma análise comparativa. Analisarei mais
as mais
posteriormente neste capítulo.
dois conjuntos de princípios
Tabela 4.1 atende a quatro critérios
Cada conjunto de princípios da
básicos. São eles:
a partir de 2017;
a) é recente,ou seja, publicado
a IA e seu impacto na socieda-
b) é diretamente relevantepara
portanto, documentos específi-
de como um todo (excluindo,
indústria ou setor);
cos de um determinado domínio,
por organizações oficiais
c) é altamente respeitável,publicado
pelo menos um escopo
e com várias partes interessadas, com
nacional; 46e
d) é influente (por causa de a-c).
IA
Tabela 4.1 Seis conjuntos de princípios éticos para a
2017) foram desenvolvidos com
1. Os Princípios Asilomar de IA (Future ofLife Institute,
com os participantes da conferên-
o patrocínio do Future ofLife Institute em colaboração
Asilomar daqui em diante);
cia Asilomar de alto nível em janeiro de 2017 (denominados
desenvolvida com o patrocí-
2. A Declaração Montreal (Université de Montréal, 2017),
nio da Universidade de Montreal após o Fórum sobre o Desenvolvimento Socialmente
' 47
Responsável da IA em novembro de 2017 (a partir de agora, Montreal)
3. Os princípios gerais oferecidos na segunda versão do Ethically Aligned Design: A Vi-
sionfor Prioritizing Human Well-Beingwith Autonomous and Intelligent Systems (Design
Eticamente Alinhado: Uma Visão para Priorizar o Bem-Estar Humano com Sistemas
Autónomos e Inteligentes) (IEEE, 2017). Esse documento de origem coletiva recebeu
contribuições de 250 formadores de opinião globais para desenvolver princípios e re-
comendaçóes para o desenvolvimento ético e o projeto de sistemas autónomos e inteli-
gentes, sendo publicado em dezembro de 2017 (a partir de agora, IEEE);
Continua
46Uma avaliação semelhante das diretrizes éticas de IA, realizada recentemente por Hagendorff (2020), ado-
ta critérios diferentes para inclusão e avaliação. Observe que a avaliação inclui em sua amostra o conjunto de
princípios que descrevemos aqui.
47Os princípios mencionados aqui são aqueles anunciados publicamente em 10 de maio de 2018 e dispo-
níveis no momento da redaçáo deste capítulo neste endereço: https://declarationmontreal-iaresponsable.
com/la-declaration/.Acesso em: 20 set. 2024.
116
Conclui
4. Os princípios éticos presentes na Statementon ArtificialIntelligence,Roboticsand
'Autonomous'Systems(Declaração sobre InteligênciaArtificial,Robótica e Sistemas
'Autónomos') (EGE, 2018) publicada pelo Grupo Europeu de Ética na Ciência e No-
vas Tecnologiasda Comissão Europeia em março de 2018 (daqui em diante, EGE);
5. Os "cinco princípios abrangentes para um código de IA" apresentados no relatório
do Comité Seleto de InteligênciaArtificial da Câmara dos Lordes do Reino Unido
"AI in the UR: Ready, Willingand Able?" ("IA no Reino Unido: pronta, disposta e ca-
paz?") (Comité de Inteligência Artificial da Câmara dos Lordes, 16 de abril de 2017,
S417) publicado em abril de 2018 (na sequência, AIUK);
6. Os Tenets ofthe Partnership on AI ou Princípios da Parceria sobre IA (Partnership on AI,
2018) publicados por uma organização multissetorial composta por académicos, pesquisa-
dores, organizações da sociedade civil, empresas que constroem e utilizam tecnologia de IA
e outros grupos (daqui para frente, Parceria).
Juntos, eles resultam em quarenta e sete princípios.48Apesar disso,
as diferenças são principalmente linguísticas e há um grau de coerência e
sobreposição entre os seis conjuntos de princípios que é impressionante e
reconfortante. Pode-se demonstrar mais claramente a convergência com-
parando-se os conjuntos de princípios com os quatro princípios fundamen-
tais comumente usados na bioética: beneficência,não maleficência,autonomia
e justiça (Beauchamp; Childress, 2013). Essa comparação não deveria sur-
preender. Como o leitor deve se lembrar, a visão que defendo neste livro é
que a IA não é uma nova forma de inteligência, mas uma forma de agência
sem precedentes. Portanto, de todas as áreas da ética aplicada, a bioética é
a que mais se assemelha à ética digital ao lidar ecologicamente com novas
formas de agentes, pacientes e ambientes (Floridi, 2013).
Os quatro princípios bioéticos se adaptam surpreendentemente bem
aos novos desafios éticos apresentados pela IA. No entanto, eles não consti-
tuem uma tradução perfeita deles. Como veremos, o significado subjacente
de cada um dos princípios é questionado,sendo que termos semelhan-
tes são frequentemente usados para significar coisas diferentes. Os quatro
48Dos seis documentos, os Princípios Asilomar oferecem o maior número de princípios com escopo indis-
cutivelmente mais amplo. Os vinte e três princípios estão organizados em três títulos: "questóes de pesquisa",
"ética e valores" e "questóes de longo prazo".A consideração das cinco "questões de pesquisa" é omitida aqui,
pois elas estio relacionadas especificamente aos aspectos práticos do desenvolvimento da IA no contexto
mais restrito da academia e da indústria. Da mesma forma, os oito princípios da Parceria consistem em ob-
jetivos intraorganizacionais e princípios mais amplos para o desenvolvimento e o uso da IA. Somente os
princípios mais amplos (o primeiro, o sexto e o sétimo) estio incluídos aqui.
117
não são exaustivos. Com base na análise comparativa
princípios também é necessário um princípio
claro, conforme observado no resumo, que
fica
explicabilidade. Entende-se a explicabilidade como algo que in_
adicional: a
o sentido epistemológicode inteligibilidade —como uma res_
corpora tanto
"como isso funciona? ", quanto o sentido ético de prestação
posta à pergunta
como uma resposta à pergunta "quem é responsável pela forma
de contas,
adicional é necessário tanto para especia-
como funciona?".Esse princípio
como designers ou engenheiros de produtos, quanto para não especia_
listas,
pacientes ou clientes comerciais.49 E o novo princípio é exigido
listas, como
forma biológica de agência. Entretanto, a
porque a IA não é como qualquer
diferentes conjuntos de princípios tam-
convergência detectada entre esses
motivos dessa advertência mais adiante neste
bém exige cautela. Explico os
os cinco princípios.
capítulo, mas, primeiro, deixe-me apresentar
4.3.Beneficência: promover o bem-estar,
preservar a dignidade e sustentar o planeta
O princípio de criar tecnologias de IA que sejam benéficas para a huma-
nidade é expresso de diferentes maneiras nos seis documentos. Ainda assim,
talvez seja o mais fácil de observar dentre os quatro princípios tradicionais da
bioética. Os princípios de Montreal e do IEEE usam o termo "bem-estar";
Montreal observa que "o desenvolvimento da IA deve, em última análise,pro-
mover o bem-estar de todas as criaturas sencientes", enquanto o IEEE afirmaa
necessidade de "priorizar o bem-estar humano como um resultado em todos
os projetos de sistemas".AIUK e Asilomar caracterizam esse princípio como
"bem comum": a IA deve "ser desenvolvida para o bem comum e o benefi-
cio da humanidade", de acordo com a AIUK. Parceria descreve a intenção de
garantir que as tecnologias de IA beneficiem e empoderem o maior número
possível de pessoas", enquanto o EGE enfatiza o princípio da "dignidade hu-
mana" e da "sustentabilidade".Talvez, seu princípio de "sustentabilidade" arti-
cule a mais ampla de todas as interpretações de beneficência, argumentando
que "a tecnologia de IA deve estar alinhada com... garantir as pré-condições
básicas para a vida em nosso planeta, a prosperidade contínua da humanidade
e a preservação de um bom ambiente para as gerações futuras". Em conjunto,
49Há uma terceira questão que diz respeito a quais novos insights podem
ser fornecidos pela explicabilidade. Nio
é relevante nesse contexto, mas é igualmente importante; para
obter detalhes, consulte Watson e Floridi (2020).
118
a proeminência da beneficência enfatiza firmemente a importância central de
promover o bem-estar das pessoas e do planeta com a IA. Esses são pontos aos
quais retornarei nos próximos capítulos.
4.4. Não maleficência: privacidade, segurança
e "precaução de capacidade"
Embora "fazer somente o bem" (beneficência) e "não causar dano" (não
maleficência) possam parecer logicamente equivalentes, eles não são. Cada
um representa um princípio distinto. Todos os seis documentos incentivam
a criação de uma IA benéfica e cada um também adverte contra as várias
consequências negativas do uso excessivo ou indevido de tecnologias de IA
(consulte os Capítulos 5, 7 e 8). Impedir violações à privacidade pessoal é par-
ticularmente preocupante. É um princípio presente em cinco dos seis conjun-
tos. Vários documentos enfatizam evitar o uso indevido de tecnologias de IA
de outras formas. Os Princípios Asilomar alertam contra as ameaças de uma
corrida armamentista de IA e do autoaperfeiçoamento recursivo da IA, en-
quanto a Parceria também afirma a importância de a IA operar "dentro de res-
triçóes seguras".O documento IEEE, por sua vez, cita a necessidade de "evitar
o uso indevido" e a Declaração Montreal argumenta que aqueles que desen-
volvem IA "devem assumir sua responsabilidade trabalhando contra os riscos
decorrentes de suas inovações tecnológicas". No entanto, a partir desses vários
avisos, não fica totalmente claro se são as pessoas que desenvolvem a IA, ou a
própria tecnologia, que devem ser incentivadas a não causar danos. Em outras
palavras, não fica claro se devemos nos proteger contra a maleficência do Dr.
Frankenstein (como eu sugiro) ou contra a maleficência do seu monstro. No
centro desse dilema está a questão da autonomia.
4.5.Autonomia: o poder de "decidir decidir"
Quando adotamos a IA e sua agência inteligente, cedemos voluntaria-
mente parte do nosso poder de tomada de decisão aos artefatos tecnológicos.
Assim, afirmar o princípio da autonomia no contexto da IA significa encon-
trar um equilíbrio entre o poder de tomada de decisão que mantemos e o
que delegamos aos AAS. O risco é que o crescimento da autonomia artificial
possa prejudicar a prosperidade da autonomia humana. Portanto, não é sur-
preendente que o princípio da autonomia esteja explicitamente declarado em
119
Declaração Montreal articula a necessidade de
A
quatro dos seis documentos. conduzida por humanos e por
tomada de decisões
um equilíbrio entre a da IA deve promover a atitonomia
desenvolvimento
quinas, afirmando que "o O EGE argumenta que os
adicionada]de todos os seres humanos".
[ênfase
devem prejudicar [a] liberdade dos seres humanos
sistemasautónomos "não adota a pos-
AIUK
próprios padrões e normas", enquanto
de estabelecer seus de ferir, destruir ou enganar seres
"o poder autónomo
tura mais restrita de que
ser investido na IA". O documento Asilomar também
humanos nunca deve
da autonomia, na medida em que "os humanos deveriam es-
apoia o princípio
querem delegar decisões aos sistemas de IA, a fim de atingir
colher como e se
humanos".
os objetivos escolhidos pelos seres
dos humanos deve ser promo-
Fica claro,portanto, que a autonomia
ser restrita. Essa última deve ser in-
vida e a autonomia das máquinas deve
humana precise ser protegida ou
trinsecamente reversível, caso a autonomia
de desligar a função de
restabelecida (considere o caso de um piloto capaz
Isso introduz uma
piloto automático e recuperar o controle total do avião).
noção que pode ser chamada de meta-autonomia, ou um modelo de decisão
para delegar.Os humanos devem manter o poder de decidir quais decisões
tomar e em que prioridade, exercendo a liberdade de escolha quando ne-
cessário e cedendo-a nos casos em que razões primordiais, como a eficácia,
possam superar a perda de controle sobre a tomada de decisões. Mas qual-
quer delegação também deve permanecer anulável em princípio, adotando
uma proteçáo final de decidir decidir novamente.
4.6.Justiça: promover a prosperidade,
preservar a solidariedade, evitar a falta de equidade
A decisão de tomar ou delegar decisões não ocorre em um vácuo, nem
essa capacidade é distribuída igualmente na sociedade. As consequências
dessa disparidade na autonomia são tratadas pelo princípio da justiça. A im-
portância da justiça é citada explicitamente na Declaração
Montreal, que
argumenta: "o desenvolvimento da IA deveria
promover a justiça e procurar
eliminar todos os tipos de discriminação". Da
mesma forma, os Princípios
Asilomar incluem a necessidade de "beneficio
compartilhado" e "prospe-
ridade compartilhada" da IA. De
acordo com seu princípio denominado
"Justiça, equidade e solidariedade", o
EGE argumenta que a IA deveria "con-
120
tribuir para a justiça global e a igualdade de acesso aos beneficios" das tecno-
logias de IA. Também alerta contra o risco de viés nos conjuntos de dados
usados para treinar sistemas de IA e, único entre os documentos, defende a
necessidade de se defender contra ameaças à "solidariedade", incluindo "sis-
temas de assistência mútua, como seguro social e saúde".
Em outros lugares, "justiça" tem ainda outros significados (especial-
mente no sentido de equidade), relacionados ao uso da IA para corrigir er-
ros do passado, como eliminar a discriminação não equitativa, promover a
diversidadee evitar o reforço de preconceitos ou a manifestaçãode novas
ameaçasà justiça. As diversas formas pelas quais a justiça é caracterizada
sugerem uma falta de clareza mais ampla sobre a IA como um reservatório
humano de "agência inteligente". Simplificando, somos nós, humanos, o pa-
ciente recebendo o "tratamento" da IA, que estaria agindo como "o médico"
prescrevendo-o, ou ambos? Essa questão só pode ser resolvida com a intro-
duçáo de um quinto princípio que emerge da análise anterior.
4.7.Explicabilidade: habilitar os outros princípios por meio de in-
teligibilidade e prestação de contas
Com relação à pergunta anterior sobre se somos o paciente ou o médico,
a resposta rápida é que, na verdade, poderíamos ser ambos. Depende das cir-
cunstàncias e de a quem "nós" se refere na vida cotidiana. A situação é inerente-
mente desigual: uma pequena fração da humanidade está atualmente engajada
no desenvolvimento de um conjunto de tecnologias que já estão transformando
o dia a dia de quase todo mundo. Essa dura realidade não passa despercebida
dos autores dos documentos analisados. Todos eles falam da necessidade de
entender e responsabilizar os processos de tomada de decisão da IA. Termos
diferentes expressam esse princípio: "transparência"em Asilomar e EGE; tan-
to "transparência" quanto "prestação de contas" em IEEE; "inteligibilidade"em
AIUK; e "compreensível e interpretável" na Parceria. Cada um desses princípios
captura algo aparentemente novo sobre a IA como forma de agência: que seu
funcionamento geralmente é invisível, opaco ou ininteligível para todos, exceto
(na melhor das hipóteses) para os observadores mais experientes.
O princípio da "explicabilidade"incorpora o sentido epistemológico
de "inteligibilidade" e o sentido ético de "prestação de contas".A adição des-
se princípio é a peça fundamental que faltava no quebra-cabeça da ética da
121
quatro: para que a IA seja benéfica e não
IA. Ele complementa os outros mal que ela está real-
capazes de entender o bem ou o
maléfica, devemos ser promova e não res-
e de que forma; para que a IA
mente fazendo à sociedade sobre quem deve decidir" deve
nossa "decisão
trinja a autonomia humana,
pelo conhecimento de como a IA agiria em nosso lugar
ser fundamentada
seu desempenho; e para que a IA seja justa, precisamos
e como melhorar
responsabilizar eticamente (ou, na verdade, imputar legalmen-
saber quem sua vez, exigiria uma
caso de um resultado negativo grave, o que, por
te) no
adequada de por que esse resultado surgiu e de como ele po-
compreensão
futuro.
deria ser evitado ou minimizado no
4.8. Uma visão sinótica
cada um dos quarenta e
Juntos, os cinco princípios anteriores capturam
notórios, elaborados por espe-
sete princípios contidos nos seis documentos
vale ressaltar que cada princí-
cialistas, analisados na Tabela 4.1. Como teste,
princípios analisadas na Ta-
pio está incluído em quase todas as declarações de
bela 4.2 (consulte a Seção 4.10). Os cinco princípios, portanto, formam uma
estrutura ética dentro da qual políticas, boas práticas e outras recomendações
podem ser feitas. Essa estrutura de princípios é mostrada na Figura 4.1.
4.9. Ética da IA: de onde e para quem?
É importante observar que cada um dos seis conjuntos de princípios
éticos para a IA da Tabela 4.1 surgiu de iniciativas com escopo global ou de
democracias liberais ocidentais. Para que a estrutura seja aplicável de forma
mais ampla, seria certamente benéfico contemplar as perspectivas de regiões
e culturas que não estão presentes ou estão sub-representadas na amostra. O
papel da China tem um interesse particular nesse sentido, uma vez que ela
já abriga a startup de IA mais valiosa do mundo (Jezard, 2018), desfruta de
váriasvantagens estruturais no desenvolvimento da IA (Lee; Triolo, 2017) e
tem um governo que declarou suas ambições de liderar o mundo em tecnolo-
gia de IA de ponta até 2030 (Conselho de Estado da China, 2017). Esse não
é o contexto para uma análise das políticas de IA
da China so, então deixe-me
acrescentar apenas algumas observações finais.
"0Sobre isso,consulte Roberts, Cowls, Morley
et al. (2021 Roberts, Cowls, Hine, Morley et ai. (2021 ), Hine
e Floridi (2022).
122
Não
Beneficência Autonomia Justiça Explicabilidade
maleficência
Princípios
Um novo princípio
da bioética ácilitador para IA
Figura 4.1 Uma estrutura ética dos cinco princípios gerais para a IA
Tanto em seu State CouncilNotice on AI (Comunicado do Conselho
de Estado sobre IA) quanto em outros lugares, o governo chinês expressou
interesse em considerar mais detalhadamente o impacto social e ético da IA
(Ding, 2018). O entusiasmo pelo uso de tecnologias não é exclusivo dos go-
vernos. Também é compartilhado pelo público em geral, na China e na Ín-
dia ainda mais do que na Europa ou nos EUA, como mostra uma nova pes-
quisa representativa (Vodafone Institute for Society and Communications,
2018). No passado, um executivo da grande empresa chinesa de tecnologia
Tencent sugeriu que a UE deveria se concentrar no desenvolvimentode
uma IA que tenha "o máximo beneficio para a vida humana, mesmo que essa
tecnologia não seja competitiva para enfrentar o mercado americano ou chi-
nês" (Boland, 2018). Isso foi repetido por afirmações de que a ética pode
ser "a bala de prata da Europa" na "batalha global da IA" (Delcker, 2018).
Eu discordo. A ética não é exclusividade de um único continente ou cultura.
Cada empresa, agência governamental e instituição académica que projeta,
desenvolve ou implanta IA tem a obrigação de fazê-lo de acordo com uma
estrutura ética, mesmo que não nos moldes apresentados aqui, ampliados
para incorporar uma variedade de perspectivas mais geográficas, culturais e
socialmente diversas. Da mesma forma, leis, regras, padrões e boas práticas
para restringir ou controlar a IA (incluindo todas aquelas atualmente em
análise por órgãos reguladores, legislaturas e grupos do setor) também po-
deriam se beneficiar de um envolvimento estreito com uma estrutura uni-
ficada de princípios éticos. O que permanece verdade é que a UE pode ter
uma vantagem no chamado efeito Bruxelas,mas isso apenas coloca mais
responsabilidade na forma como a IA é regulamentada pela UE.
123
princípios às práticas
4.10.Conclusão: dos
apresentada neste capítulo fornecer uma visão geral coe-
Se a estrutura
suficientemente abrangente dos princípios éticos centrais para a IA
rente e
então poderá servir como a arquitetura na qual leis,
(Floridi et al., 2018),
práticas são desenvolvidos para setores, in-
regras, padrões técnicos e boas
Nesses contextos, a estrutura pode desem-
dústrias e jurisdições específicos.
(consulte o Capítulo 12) quanto um papel
penhar tanto um papel facilitador
necessidade de regular as tecnologias
restritivo. Esse último papel se refere à
Capítulo 7) e da guerra cibernética,
de IA no contexto do crime online (ver
Taddeo e Floridi (2018b). Na ver-
que discuto em Floridi e Taddeo (2014),
um papel valioso em
dade, a estrutura mostrada na Figura 4.1 desempenhou
cinco outros documentos:
1. O trabalho do A14People (Floridi et al., 2018), o primeiro
fórum global da Europa sobre o impacto social da IA, que o ado-
tou para propor vinte recomendações concretas para uma "So-
ciedade de IA Boa" à Comissão Europeia (para conhecimento:
eu presidi o projeto; consulte "A14People"na Tabela 4.2).
O trabalho da A14Peoplefoi amplamente adotado por
2. Ethics GuidelinesforTrustworthyAI (Diretrizes Éticas para
uma IA Confiável) publicadas pelo High-Level Expert Group on
AI (HLEGAI, Grupo de Especialistas de Alto Nível em IA)
da Comissão Europeia (HLEGAI, 2018, 2019) (para conheci-
mento: eu era um membro; consulte "HLEG" na Tabela 4.2);
que, por sua vez, influenciou
3. a Recomendaçãodo Conselho da OCDE sobre Inteligên-
cia Artificial (OCDE, 2019); (consulte "OCDE" na Tabela
4.2), que atingiu quarenta e dois países; e
4. UE.
Tudo isso foi seguido pela publicação do
chamado
5. Princípios de IA de Pequim (Academia
de Inteligência Ar-
tificialde Pequim, 2019) (veja
'Pequim' na Tabela 4.2); e
6. o chamado RomeCallfor
anAI Ethics (Chamado de Roma
para uma Ética da IA) um
documento elaborado pela Pontifi-
cia Academia para a Vida
(2020), que o assinou em conjunto
124
com Microsoft, IBM, FAO e Ministério da Inovação da Itália
(para conhecimento: eu estava entre os autores do rascunho;
consulte "Chamado de Roma" na Tabela 4.2).
Tabela 4.2 Os cinco princípios nos documentos analisados
Beneficência Náomaleficéncia Autonomia Justiça Explicabilidade
AIUK
Asilomar
EGE
Montreal
Parceria
A14People
HLEG
OCDE
Pequim
Chamado de
Roma
O desenvolvimento e o uso da IA têm o potencial de causar impactos
positivos e negativos na sociedade, de aliviar ou ampliar as desigualdades
existentes,de resolver problemas antigos e novos ou de causar problemas
sem precedentes. Traçar o caminho que seja socialmente preferível (equi-
tativo) e ambientalmente sustentável dependerá não apenas de uma regula-
mentaçáo bem elaborada e de padrões comuns, mas também do uso de uma
estrutura de princípios éticos na qual açóes concretas possam ser situadas. A
estrutura apresentada neste capítulo, que emerge do debate atual, pode ser-
vir como uma arquitetura valiosa para garantir resultados sociais positivos
da tecnologia de IA. Ela pode ajudar a passar de bons princípios para boas
práticas (Floridi et al., 2020; Morley; Floridi, et al., 2020). Também pode
fornecer a estrutura exigida por uma auditoria ética da IA (Mókander; Flo-
ridi, 2021; Floridi et al., 2022; Mókander et al., 2021). Durante essa tradu-
çâo, alguns riscos precisam ser mapeados para garantir que a ética da IA não
caia em armadilhas novas ou antigas. Essa é a tarefa do próximo capítulo.
125