REGULAÇÃO DA INTELIGÊNCIA
ARTIFICIAL - EXPERIÊNCIAS
INTERNACIONAIS E DESAFIOS PARA O
BRASIL
Claudio Nazareno
Consultor Legislativo da Área XIV
Ciência e tecnologia, Comunicação Social, Informática,
Telecomunicações e Sistema Postal
ESTUDO
MARÇO DE 2024
O conteúdo deste trabalho não representa a posição da Consultoria
Legislativa, tampouco da Câmara dos Deputados, sendo de exclusiva
responsabilidade de seu autor.
© 2024 Câmara dos Deputados.
Todos os direitos reservados. Este trabalho poderá ser reproduzido ou transmitido na
íntegra, desde que citados(as) os(as) autores(as). São vedadas a venda, a reprodução parcial e
a tradução, sem autorização prévia por escrito da Câmara dos Deputados.
O conteúdo deste trabalho é de exclusiva responsabilidade de seus(suas) autores(as), não
representando a posição da Consultoria Legislativa, caracterizando-se, nos termos do art. 13,
parágrafo único da Resolução nº 48, de 1993, como produção de cunho pessoal do(a)
consultor(a).
3
RESUMO EXECUTIVO
Partindo da premissa de que a inteligência artificial permeia todos os
aspectos de nossa vida digital, o estudo discute as principais dificuldades para implementação
de um modelo regulatório equilibrado que permita o desenvolvimento seguro da inteligência
artificial no Brasil. Inicialmente é traçado um panorama das recentes regulamentações da
inteligência artificial pelo mundo, começando pelas recomendações da Unesco e passando
por países relevantes e diversos em sua forma de abordar o assunto: Estados Unidos, China,
Japão, Rússia, União Europeia e Reino Unido. São apresentados os principais instrumentos
normativos e de promoção dessa tecnologia já em curso no Brasil e analisadas as principais
propostas legislativas em andamento no Congresso Nacional. Entre as conclusões do estudo,
a questão da correta responsabilização dos agentes envolvidos e da existência ou não de
instituição reguladora são as principais dificuldades a serem objetos de decisão pelos
legisladores. As escolhas terão profundo impacto no desenvolvimento do ecossistema e da
adoção da IA no Brasil.
Palavras-chave: inteligência artificial; estudo comparado; experiências internacionais;
responsabilização civil; proteção de dados pessoais; internet
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
4
SUMÁRIO
1 INTRODUÇÃO ............................................................................................... 5
2 O CONTEXTO TECNOLÓGICO DA IA ...................................................... 7
3 ALGUNS DOS DESAFIOS QUE SURGEM COM A IA ................................ 8
4 EXPERIÊNCIAS INTERNACIONAIS ........................................................13
ORGANISMOS INTERNACIONAIS ............................................................. 14
ESTADOS UNIDOS ............................................................................................ 15
CHINA..................................................................................................................... 16
JAPÃO ..................................................................................................................... 16
RÚSSIA .................................................................................................................... 17
UNIÃO EUROPEIA ............................................................................................ 18
REINO UNIDO .................................................................................................... 20
5 O ARCABOUÇO BRASILEIRO RELATIVO À IA ...................................... 20
6 AS PROPOSTAS LEGISLATIVAS NO BRASIL .......................................... 23
A PROPOSTA DA CÂMARA DOS DEPUTADOS (PL 21/2020) ............ 24
A PROPOSTA DO SENADO FEDERAL (PL 2338/2023)......................... 25
7 CONSIDERAÇÕES FINAIS ......................................................................... 27
8 REFERÊNCIAS ..............................................................................................31
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
5
1 INTRODUÇÃO
Quando nos conectamos à internet, utilizando buscadores ou redes
sociais, e até de maneira invisível para os cidadãos, como, por exemplo, quando realizamos
ligações telefônicas ou esperamos um semáforo abrir, a inteligência artificial (IA) está
intermediando nossas relações, otimizando tarefas e direcionando nossas ações. Essa
tecnologia tem despertado renovado interesse de grande parte da população nos últimos
anos, especialmente com o lançamento de ferramentas de IA generativas, isto é, aquelas que
geram respostas, que se assemelham às de um ser humano, a partir de perguntas do usuário.
Na verdade, o tema faz parte do imaginário popular há décadas, quando se sonhava com
máquinas aprendendo comportamentos e a pensar e a responder como humanos. Também
as preocupações. Isaac Asimov, em seu livro de ficção “Eu, robô”, de 1950, escreveu as três
leis da robótica:
“1.ª Lei: Um robô não pode ferir um ser humano ou, por
inação, permitir que um ser humano sofra algum mal.
2.ª Lei: Um robô deve obedecer às ordens que lhe sejam
dadas por seres humanos, exceto nos casos em que entrem em conflito com
a Primeira Lei.
3.ª Lei: Um robô deve proteger sua própria existência, desde
que tal proteção não entre em conflito com a Primeira ou Segunda Leis”
(Asimov, 2015).
Passando rapidamente da ficção científica e pelo desenvolvimento dos
primeiros computadores, da robótica e da automação, chegamos em 2017 e à proposta
apresentada por pesquisadores da Google Research no seminal artigo Attention Is All You Need
(Vaswani, Shazeer, Parmar et al, 2017). Nesse trabalho foi divulgado método revolucionário,
para muitos, chamado simplesmente de Transformador (Transformer), que permitiu o
desenvolvimento da geração de texto por IA.1 Cinco anos depois chegamos ao ChatGPT2
(T, de Transformer) 3.5, em 2023, e ao lançamento da versão 4.0, e o uso da IA se tornou uma
realidade para dezenas de milhões de usuários de internet.
1O método proposto simplifica complexos métodos computacionais utilizados até então, substituídos por um
cálculo de “atenção” às partes mais importantes de uma informação (uma frase ou uma imagem, por exemplo).
2 De propriedade da OpenIA, a qual possui forte parceria comercial com a Microsoft.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
6
Neste ponto do tempo, pode-se dizer que a IA perpassa muitos aspectos
de nossa vida quotidiana, embora, na maioria das vezes, o seja de maneira desavisada para
muitos. Pari passu com a disponibilidade de ferramentas no dia a dia das pessoas e o apetite
crescente de empresas e governos e à sua aceitação (forçada ou não) pela população, os
parlamentares também se interessaram por regulamentar a tecnologia. Pelo mundo há
movimentos nesse sentido e as abordagens regulatórias variam. Segundo a inciativa Digital
Policy Alert, existiam, no início de 2024 (quando da produção deste texto), 128 leis pelo
mundo acerca do assunto. 3 No Brasil, embora ainda não exista uma lei específica e, sim,
instrumentos mais voltados para o seu uso e promoção, o entusiasmo não poderia ser
diferente. Uma consulta à base de projetos em tramitação na Câmara dos Deputados indica
existirem, ao menos, 42 projetos buscando regulamentar diversos aspectos da temática. As
preocupações de empresas, governos, legisladores, especialistas e a sociedade civil organizada
vão desde a proibição ou não do uso da IA em atividades de alto risco, a quem responsabilizar
em casos de danos, como cuidar da transterritorialidade a que estão sujeitos os dados e a
propriedade dos sistemas, à necessidade ou não de órgão de controle e tantas outras
implicações.
Este trabalho irá discutir os distintos desafios e abordagens encontradas e
alguns dos principais instrumentos colocados em campo para lidar com essa nova realidade.
Inicialmente este trabalho irá apresentar de maneira sucinta a tecnologia e os principais
termos envolvidos para o necessário entendimento do que seja e em que consiste a IA. Na
sequência, apresentaremos os principais desafios e objetos de preocupação. Para entender as
principais soluções regulatórias adotadas, são apresentados os casos de países relevantes, seja
pelo importância técnica-política desses, seja pela diversidade de suas abordagens. Entendido
o panorama internacional, identificaremos os principais instrumentos regulatórios existentes
no Brasil, que, por ora, tangenciam a regulação da IA. Na continuação, discutiremos as duas
principais propostas legislativas sobre o tema que tramitam em conjunto no Senado Federal:
uma aprovada pela Câmara dos Deputados (PL 21/2020) e a outra, oferecida pela outra casa
(PL 2338/2023). Por último, oferecemos alguns pontos para reflexão e as considerações
finais.
3 Ver https://digitalpolicyalert.org/threads/regulating-artificial-intelligence
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
7
2 O QUADRO TECNOLÓGICO E OS PRINCIPAIS CONCEITOS QUE
CIRCUNDAM A IA
De acordo com Eric Horvitz, da Microsoft:
“IA não é realmente uma coisa única – é um conjunto de
subdisciplinas e métodos ricos, visão, percepção, fala e diálogo, decisões e
planejamento, robótica e assim por diante. Temos que considerar todas essas
diferentes disciplinas e métodos na busca de soluções verdadeiras na entrega
de valor aos seres humanos e às organizações” (ver UIT, 2019).
Talvez uma forma mais simples de entender o que é IA, e obviamente
simplificando demais, seria imaginá-la como sendo um método computacional (portanto,
executado por máquinas) que se vale de um grande banco de dados (os exemplos), de regras
e cálculos probabilísticos (programas de computador) de modo a inferir respostas plausíveis
e inteligentes (a perguntas) ou realizar ações, em aplicativos, páginas de internet ou em
máquinas ou robôs. Assim, uma página de internet, por exemplo, pode inferir nossas
próximas palavras com base nesse ferramental e sugerir um “obrigado” após um “muito” ao
final de um e-mail, ou um buscador autocompletar a pesquisa com base na primeira palavra
digitada. Um chatbot de uma empresa sabe as respostas possíveis para determinadas perguntas
de usuários. De modo semelhante, a análise de dados do provedor de streaming sabe que é
melhor não sugerir a determinado usuário um filme de terror numa noite de domingo, uma
vez que ele prefere documentários sobre insetos e mora sozinho. Uma máquina empilhadeira
autônoma, quando encontra um operário no caminho, programa automaticamente uma nova
rota sem atropelá-lo e, ao mesmo tempo, minimizando o novo trajeto. Um sistema de análise
de imagens clínicas infere, com base em casos anteriores, que determinada imagem possui
determinada probabilidade de ser uma condição maligna para o paciente. Um advogado pode
apostar em determinados tipos de sentenças em tribunais ou juízes específicos ou vice-versa,
juízes poderiam dosificar penas de acordo com a “inteli-jurisprudência”.
Todas essas aplicações indicam que ferramentas de IA utilizam-se de
grandes bancos de dados e capacidades de processamento, usualmente conectando-se a data
centers interligados em nuvem, isto é, armazenados e copiados em distintos lugares, o que
implica que os dados ultrapassaram fronteiras. Para adquirir essa grande massa de dados (big
data), os sistemas necessitam utilizar ferramentas de rastreamento, raspagem e mineração (bots
e data mining), de armazenamento e de organização. De posse dessas informações, os sistemas
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
8
podem ser treinados por pessoas reais (data labelers), que indicam ou sinalizam qual a categoria
de cada uma das informações adquiridas e a qualidade desta, entre outras características.
Varrendo essas bases de dados as máquinas podem apreender (machine learning) e, com base
nessa organização e aprendizado, algoritmos que simulem a tomada de decisão por humanos
(redes neurais e outros métodos) podem ser desenvolvidos, aprofundando o aprendizado inicial
(deep learning), e podem gerar textos, imagens ou vídeos (IA generativa). Assim, e mediante a
incorporação de novos dados gerados por usuários (inputs), novas percepções sobre
determinado assunto ou tomadas de decisões vão sendo executadas e moldadas ao longo do
tempo. Como se vê, um sistema de IA pode ser considerado como algo vivo e em constante
aprendizado e transformação.
Dessa rápida explicação, (novamente destacamos) excessivamente
resumida, o que se vê é que sistemas que se utilizem de IA para a prestação de qualquer tipo
de serviço, quer seja a um usuário final pesquisando na internet, a operários em uma linha de
produção ou a médicos em cirurgia, necessitam de diversas etapas de processamento (ou
camadas de serviços, no jargão tecnológico), envolvendo uma miríade de agentes, em
localizações indeterminadas e desconhecidas e de dimensões e relevâncias as mais variadas.
3 DESAFIOS QUE SURGEM COM A IA
O desenvolvimento dos serviços de que estamos tratando depende
fortemente de códigos de computador (os programas ou algoritmos), que são desenvolvidos,
ao menos primariamente, por pessoas naturais e, portanto, sujeito a vieses comportamentais,
sociais e culturais (o chamado viés algorítmico), além de, naturalmente, erros.
Tome-se, por exemplo, um aplicativo de culinária que sugira um cardápio
em função de alguns dados inseridos pelo usuário. Se a aplicação foi treinada em uma base
de dados de outra localidade – por exemplo um receituário do Nepal – é provável que ela dê
preferências a outros pratos ao invés de reforçar a culinária e ingredientes da localidade do
usuário. Em outro caso, o programador/treinador pode ser de determinada região do
planeta, ter religião, orientação sexual e idiossincrasias diversas da cultura do usuário final e,
se o sistema não possuir uma base treinada com diversidade de normas e padrões sociais
suficientes, esse usuário poderá nunca receber uma resposta de acordo com as crenças de
sua sociedade. O problema pode persistir até quando são empregadas diversas pessoas para
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
9
treinamento. É pouco provável que o treinamento feito em determinado ponto do globo
sobre temas difíceis – por exemplo aborto, home-schooling ou casamentos arranjados - recebam
o mesmo gabarito de outra equipe de outra parte. Assim, esses mesmos temas poderão ser
apresentados por softwares de IA com vieses diversos aos das culturas do usuário,
suplantando regras e padrões sociais vindos de outros países.
A qualidade e a capacitação da mão-de-obra utilizadas para treinar e
classificar os sistemas (as pessoas chamadas de data labelers) também devem ser levadas em
consideração. Certamente, treinamento em neurociência, física quântica ou direito
concorrencial exige certo grau de especialização muito maior do que para outros temas mais
mundanos. Da mesma forma, conteúdos nocivos ou impróprios, muito disponíveis na
internet, devem ser corretamente identificados e sinalizados, quando minerados e
incorporados, ou eventualmente removidos, à base de dados. Importante destacar que o
treinamento para a identificação desses conteúdos nocivos já é realizado nos ambientes
fechados das redes sociais, sendo que normalmente é um serviço terceirizado, a ser realizado
em países onde a mão-de-obra é mais barata.4
Mas a problemática é muito maior do que “apenas” uma dominação
cultural exógena ou uma classificação terceirizada. Outro problema intrínseco à IA,
especialmente a generativa, é que, como estamos lidando com probabilidades, a resposta que
a IA irá apresentar a uma determinada demanda será, na verdade, aquela que for mais
publicada na internet. Assim, fatos ou opiniões escritas em inglês, por exemplo, a língua
franca em boa parte do mundo, terão sempre maior probabilidade de serem apresentadas
como “verdades”. Extrapolemos isto para a geopolítica e poderemos antever alguns riscos
adicionais da IA.
São diversos os riscos que estão sendo enfrentados no desenvolvimento
da IA. A ACLU (2018), universidade dos Estados Unidos, testou uma tecnologia de
reconhecimento facial da empresa Amazon e verificou que 28 membros do congresso foram
falsamente identificados como criminosos. E, ainda, verificou que os erros foram
desproporcionais com relação à representatividade de congressistas pessoas de cor. Estudo
publicado pelo MIT (Heaven, 2020) elencou diversos trabalhos que sugerem que algoritmos
4 Esse trabalho de classificação incorre em alto grau de exposição desses trabalhadores a conteúdo tóxico. Neste
particular, investigação jornalística da revista Time (Perrigo, 2023) identificou que a Open IA, dona do Chatgpt
utilizou trabalhadores do Quênia pagos, abaixo de dois dólares a hora, para treinamento da ferramenta na
identificação desse tipo de conteúdo.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
10
para predição de crimes possuem vieses racistas, perpetuando racismo sistêmico ou
estrutural. Por exemplo, a identificação de locais com alta incidência de crimes predispõe os
policiais em ronda a realizar maior número de abordagens e prisões naqueles locais (pelo
simples fato de haver um grupo de pessoas na rua, por exemplo), em detrimento de outras
localidades menos patrulhadas, e cada vez mais os dados coletados reforçam a predição nesse
sentido. Outros tipos de ferramentas sujeitas a críticas são aquelas utilizadas para calcular a
possibilidade de reincidência no crime por pessoas condenadas anteriormente. Pesquisa
realizada sobre um desses instrumentos verificou que o erro em pessoas negras é o dobro do
que o de em pessoas brancas (Angwin, Larson, Mattu e Kirchner, 2016).5 Predições nesse
sentido não afetam apenas questões de raça, mas podem também perpetuar condições
socioeconômicas das pessoas, restringindo o acesso a serviços públicos e impactar na
escolaridade e outros indicadores.
Talvez esse tipo de crítica tenha feito com que ferramentas mais recentes
lançadas no mercado fossem extremamente cuidadosas quando o assunto envolve questões
de raça, o que também tem gerado distorções por excesso de rigor. Recentemente, em 2024,
quando o gigante Google lançou sua ferramenta de IA, Gemini, que permitia a geração de
imagens, a empresa foi rapidamente criticada por ser “anti-branca” ou excessivamente “pró-
diversidade” na geração das imagens, o que a levou a temporariamente bloquear o aplicativo
(De Vynck e Tiku, 2024).
Além do reforço de vieses algorítmicos e o uso de bancos de dados
inadequados, entre outros problemas com o treinamento, existe a possibilidade de erros, uma
vez que a IA se baseia fortemente em probabilidades. Essas inconsistências, no pior dos
casos, podem levar a resultados totalmente inesperados. São as chamadas “alucinações” dos
sistemas. Quiçá o primeiro desses casos a ganhar notoriedade seja o de um advogado, nos
EUA, que preparou uma petição pela aplicação ChatGPT e a ferramenta citou casos e
sentenças inexistentes (G1, 2023). No Brasil, o Conselho Nacional de Justiça, por sua vez,
está investigando o caso de um juiz que incluiu em sua sentença uma jurisprudência inventada
pela IA como sendo do Superior Tribunal de Justiça (Conjur, 2023). Existem relatos de casos
5De acordo com o estudo, “no geral, a ferramenta previu corretamente a reincidência em 61% das vezes. Mas
os negros têm quase duas vezes mais probabilidade do que os brancos de serem rotulados como de maior risco,
mas não de reincidência. Comete o erro oposto entre os brancos: eles têm muito mais probabilidade do que os
negros de serem rotulados de menor risco, mas acabam cometendo outros crimes.”
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
11
similares no mundo acadêmico onde ferramentas “alucinam” citando artigos, pesquisas e
conclusões inexistentes.
Enquanto prisões e sentenças possam ser enviesadas, inventadas ou
equivocadas por conta de processamentos equivocados, existem casos ainda mais graves.
Embora ainda sejam assuntos envolvidos em controvérsias e em investigação, há diversos
casos sobre carros autônomos ou com sistemas de piloto automático envolvidos em
acidentes, inclusive fatais. Na Coreia do Sul um operário morreu esmagado por um robô ao
não distingui-lo de caixas de produtos (AFP, 2023). Certamente, esses casos irão se
multiplicar com a massificação do uso de IA em cada aspecto da vida em sociedade ao invés
de desaparecer. Pelo menos durante um bom tempo de transição.
Qual será a duração desse tempo de transição até que cheguemos a uma
etapa sem erros ainda não sabemos. Mas há de se reconhecer que as ferramentas evoluíram
vertiginosamente. De 2017, com o salto propiciado pelo método Transformer, até as
ferramentas mais recentes, muitos dos erros aqui citados (relativos a estudos realizados há já
alguns anos, como o leitor pode verificar nas referências), já foram corrigidos. E esse
desenvolvimento será cada vez mais rápido.
Neste ponto é importante ressaltar uma outra problemática que advém do
uso desta tecnologia, que é igual a de tantas outras: a necessidade de desenvolvimento de
tecnologias nacionais. O Brasil precisa fomentar o uso da IA não apenas como forma de
cortar custos (na prestação de serviços públicos), de aumentar a competitividade da indústria
e do agro ou para o consumo de produtos de ponta na era da informação. O país precisa
fomentar o desenvolvimento de ferramentas nacionais que gerem conhecimento e capitais
no país. Todas as ferramentas que temos mencionado neste estudo são de empresas globais.
É preciso ter a consciência de que, apesar de se nutrirem de dados nacionais, o aprendizado
e o conhecimento são gerados e apropriados no exterior.
De volta para a análise dos problemas, enquanto não chegar esse mundo
em que a IA não seja mais fonte de erros, teremos que lidar com os problemas que ela
acarreta. De todo esse mosaico de consequências problemáticas que teremos que lidar, que
infelizmente ocorrem –apesar da grande acurácia informada pelas empresas e do inegável
avanço alcançado por essas ferramentas–, talvez a principal seja a correta identificação e
responsabilização das partes envolvidas. Em outras palavras, a quem responsabilizar em caso
de simples erros, problemas no uso, danos ou, até, crimes.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
12
No direito civil é estabelecido que aquele que, por ato ilícito (incluídos
ação ou omissão voluntária, negligência ou imprudência), causar dano a outrem fica obrigado
a repará-lo, independentemente de culpa (arts. 186, 187 e 927 do Código Civil). É a chamada
responsabilidade civil ou extracontratual, que pode ser objetiva (independentemente de culpa
ou dolo) ou subjetiva (quando quem sofreu o dano deve provar a culpa ou dolo do agente).
Em outro plano a ser considerado, a legislação consumerista brasileira (Código de Defesa do
Consumidor – CDC Lei no 8.078/1990) adota a responsabilidade solidária, isto é, quando
todos os agentes envolvidos na cadeia de fornecimento de um determinado bem ou serviço
podem ser considerados responsáveis, cabendo direito de regresso (aos eventuais imputados)
contra o real causador do dano. Isso é válido mesmo quando o serviço é intermediado por
alguém. No caso da internet:
A empresa intermediadora de compras e de serviços pela
internet e os demais participantes da cadeia produtiva que, de qualquer
forma, auferem vantagem econômica (ou de qualquer outra natureza) a
partir dessas transações respondem objetiva e solidariamente pelos
prejuízos causados ao consumidor. (TJDFT, 2021)
De acordo com esse arcabouço e entendimento, verifica-se que, caso um
provedor de serviço que se utilize de IA venha a causar algum dano, este poderá ser
responsabilizado, mesmo que a origem da falha tenha sido causada por outro dos agentes
envolvidos na cadeia. Aqui é importante entender que a sequência de transações envolvidas
com a prestação de um serviço ou a utilização de um produto que abarque IA é longa.
Envolve, entre outros, conectividade, processamento, transmissão, acessos a banco de dados,
bilhetagem, etc. Isto é válido quer seja um carro autônomo que esteja em contato direto com
a fábrica pela internet ou um robô de cirurgia operado por telemedicina que se utiliza de um
banco de dados instalado em outro lugar do mundo. A variedade de falhas que podem
ocorrer e a responsabilização solidária à qual todos os envolvidos estão sujeitos ilustram o
desafio em se obter uma responsabilização justa e segura para cidadãos, governos e empresas
pelo uso inadequado ou danos provocados por sistemas de IA.
Além do desafio da correta responsabilização dos agentes envolvidos, está
a questão da avaliação do risco. Certamente há atividades de maior e menor risco. Por
exemplo, o autopreenchimento de formulários não é uma atividade tão preocupante quanto
o uso de artefatos inteligentes para neutralização de terrorismo (ou, em outras palavras, armas
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
13
autônomas para eliminação de terroristas de alta periculosidade).6 Assim, há de se estabelecer
quais atividades poderiam ser de livre provimento, reguladas para atender a determinados
parâmetros, e quais, simples e diretamente, proibidas. De tal modo, surge a necessidade de
estabelecer uma forma de classificação de riscos, por exemplo, baixo, médio e alto risco. Essa
forma de classificação, que inclui a vedação de atividades, nada mais é do que regular
preventivamente, invocando o princípio da precaução.
A necessidade de avaliar o grau de risco das atividades nos leva
diretamente à questão da autoridade de supervisão. Para que a IA se desenvolva e gere todos
os benefícios que dela se espera, minimizando, senão eliminando, os perigos em seu mau uso
ou danos em caso de defeitos, é importante que exista clareza quanto a quem irá fiscalizar e
atuar quando necessário em cada campo de aplicação. Caso o uso de sistemas de IA se
popularize e seja parte indissociável na prestação dos serviços, como se espera, maior a
importância de se ter um marco legal e um sistema de fiscalização competente. É razoável
acreditar que a resolução de disputas e reparações de danos devidas pelo uso da IA não
poderão ser deixadas, todas, para a seara judicial. Não só o custo processual seria crescente
como as consequências da insegurança jurídica e o atraso gerado para o desenvolvimento
socioeconômico do país seriam extremamente negativas. Daí a importância do princípio da
precaução.
Há diversas outras implicações do uso da IA que deveriam ser
endereçadas, algumas delas certamente em leis, mas não é objeto deste estudo fazer um
ensaio exaustivo dos temas. Neste particular os países têm adotado posturas díspares com
relação a matéria, uns seguindo abordagens de laissez-faire e outros mais preocupados em
colocar barreiras mais concretas ao desenvolvimento e uso das novas tecnologias, como
veremos a seguir.
4 EXPERIÊNCIAS INTERNACIONAIS
Por ser a IA uma tecnologia que se alastrou recentemente, é natural que o
arcabouço jurídico ainda esteja em construção ao redor do mundo, assim como as
abordagens não sigam um padrão. Entretanto, tendo em vista o caráter cada vez mais
6Restrições ao uso de armas autônomas, como aviões não tripulados, drones ou rifles, são objeto de discussão
na ONU, no âmbito de uma revisão à convenção sobre armas convencionais. (ver ONU, 2023).
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
14
transnacional das interações de pessoas, empresas e governos, é possível que rapidamente
seja formada uma corrente global para implementação de normas minimamente
padronizadas. Esses tipos de movimentos foram vistos anteriormente no Brasil, como é o
caso da Lei de Acesso à Informação (Lei no 12.527/2011), promovido por diversas
instituições internacionais ligadas à transparência, do Marco Civil da Internet (Lei no
12.965/2014), aprovado após vários anos da “Lei do Bom Samaritano” dos EUA (Seção 230
do Código daquele país), e da Lei Geral de Proteção de Dados Pessoais, aprovada na esteira
de regulação europeia acerca do tema. Selecionamos nesta seção a abordagem regulatória da
IA em alguns países significativos em termos geopolíticos e na Comunidade Europeia. A
Digital Policy Alert, citada no início do trabalho, possui excelente ferramenta para
acompanhar a evolução da regulação do setor em diversos países (a qual iremos utilizar como
fonte nesta seção, a não ser quando indicado).
ORGANISMOS INTERNACIONAIS
Antes porém de analisar os casos selecionados, é necessário verificar as
Recomendações sobre a Ética da Inteligência Artificial da Unesco (Organização das Nações
Unidas para a Educação, a Ciência e a Cultura), de 2021, adotada por 193 países, no que pode
ser considerado como o primeiro padrão global sobre a ética em IA. As recomendações são
baseadas em quatro pilares: i) o respeito e a proteção dos direitos e dignidades humanas; ii)
convivência pacífica e sociedades interconectadas; iii) assegurar diversidade e inclusão; e, iv)
manutenção do ecossistema e do meio-ambiente (Unesco, 2023). Na questão dos direitos
humanos, é determinado que o uso de IA deve ser avaliado com relação aos riscos de causar
dano, e assegurar, entre outros, a não discriminação, o direito à privacidade e a proteção de
dados pessoais, a transparência dos algoritmos, a responsabilidade e a prestação de contas
dos provedores. Aplicações para pontuação social (social scoring) e para a prática de vigilância
em massa são proibidas pela Recomendação.
Em 2023, as Nações Unidas lançaram o Corpo Consultivo de Alto-Nível
em Inteligência Artificial que espera lançar seu relatório final em 2024. Em seu relatório
preliminar é indicado que instituições de governança em IA devem ser guiadas pelos
seguintes princípios ou fundamentos: i) promover a inclusão de todos os cidadãos; ii) para
além de não fazer o mal, o desenvolvimento deve visar ao interesse público; iii) a governança
dos sistemas deve incluir também a de dados, assim como a promoção de dados públicos e
abertos; iv) priorizar autoridades nacionais, porém conectadas e harmônicas globalmente; e,
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
15
v) ser ancoradas na Carta da ONU, leis internacionais de direitos humanos e os Objetivos de
Desenvolvimento Sustentáveis (ONU, 2023a).
OCDE, UIT e outros órgãos transnacionais específicos também possuem
iniciativas para regular, em certa medida, e guiar o desenvolvimento da IA, porém, estão além
do escopo deste estudo.
ESTADOS UNIDOS
Nos EUA não há uma lei específica para tratamento da IA, porém, há
diversas iniciativas infralegais de diversos órgãos do executivo. Podemos destacar a Ordem
Executiva Presidencial de 30/10/2023 sobre o Desenvolvimento e Uso Seguro, Protegido e
Confiável de Inteligência Artificial (House, 2023).7 O instrumento reconhece a “promessa e
perigo” da tecnologia e indica oito princípios e prioridades que devem ser seguidos por aquela
Administração para o seu avanço e supervisão.8
A partir desses princípios gerais, coordenados pela Secretaria de Comércio
daquele país, várias instituições públicas passaram a implementar diretivas e iniciativas, em
especial os responsáveis por estabelecer padrões e tecnologias, bureau de indústria,
tecnologias da informação e comunicações e patentes (Commerce, 2023).9 Nessa seara, a
Secretaria já realizou consultas públicas para regular a chamada infraestrutura como serviço,10
a proteção à aplicação de golpes por simulação ilegal de empresas e governos (os infelizmente
populares, “golpes pela internet”), cibersegurança e outros.
No Congresso alguns projetos chegaram a tramitar, porém, nenhum
chegou a termo. De outra parte, existem algumas leis estaduais e municipais. Nova Iorque,
Illinois e Colorado, por exemplo, possuem instrumentos sobre o uso de IA em entrevistas
de emprego e avaliações de seguro.
7 A Executive Order pode ser considerada equivalente a Decreto da Presidência da República.
8 São eles: i) ser segura e protegida; ii) promover inovação, competição e colaboração para a promoção dos
desafios sociais; iii) compromissada com os trabalhadores americanos; iv) avançar na equidade e direitos civis;
v) proteger os interesses dos cidadãos; vi) proteger a privacidade e liberdades; vii) aumentar a capacidade do
governo para regular o uso responsável; e, viii) promover a liderança global no desenvolvimento da tecnologia.
9 Secretaria de Comércio, equivalente a Ministério. As agências são: National Institute of Standards and
Technology (NIST), Bureau of Industry and Security (BIS), National Telecommunications and Information
Administration (NTIA), e U.S. Patent and Trademark Office (USPTO).
10 Conhecido como IaaS (Infrastructure as a service), refere-se à prestação de serviços de computação e
armazenamento em nuvem, útil para execução de processos, incluindo IA, por empresas especializadas e
terceirizadas.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
16
CHINA
A China quiçá seja o país em que a IA tenha sido adotada em sua forma
mais intrusiva no dia a dia dos cidadãos. Por exemplo, a pontuação social (social scoring) e o
uso de tecnologias de reconhecimento facial e outros processos de identificação digital para
o acesso a serviços públicos. Assim, a análise dos objetivos e dos arcabouços em discussão
naquele país possuem outros tipos de paradigmas.
Em 2017, o país lançou o "Plano para desenvolvimento de IA de nova
geração" e medidas mais específicas foram sendo publicadas desde então. Documento do
Ministério das Relações Exteriores (MRE, 2024) indica, entre outras: "Dispositivos sobre a
administração de recomendações algorítmicas", de 2021, determinando o registro de
algoritmos e inclui regras para a recomendação algorítmica; e "Dispositivos sobre a
administração de `deep synthesis`", de 2022, nome dado aos deep fakes, determinando a
obrigatoriedade de identificação e de ação pelas plataformas para o seu combate. A instrução
sobre “Recomendações Algorítmicas” determina que os provedores desses algoritmos
devem: proteger os menores; permitir que usuários personalizem suas características
pessoais; não oferecer preços discriminatórios em função de características pessoais; notificar
o usuário quando a recomendação for fruto de algoritmo; e oferecer opção de saída (Holistic,
2024).
Ainda segundo o documento do MRE, em 2023 o governo lançou
consulta pública para a implementação de “Medidas Interinas para a Administração de
Serviços de IA”. O que se viu durante a discussão dessas medidas é de que as determinações
foram suavizadas com relação à proposta inicial. O documento atual prevê que o conteúdo
gerado deve ser transparente e confiável, não pode promover a discriminação e que a
inovação deve ser buscada com respeito aos princípios legais.
Possivelmente o país está caminhando para a implementação de uma
regulação mais completa sobre todo o assunto relativo à IA.
JAPÃO
Há diversas iniciativas na regulação da IA no Japão, de acordo com o
painel da Digital Policy Alert. Em 2022, começaram iniciativas governamentais para
regulação das plataformas na questão da moderação de conteúdo e proteção de menores.
Em 2023, foram adotadas uma série de ações, entre elas a publicação do Plano de Ação do
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
17
G7 para promover a interoperabilidade das ferramentas de IA. No mesmo ano, foi adotado
o guia da Unesco para governança das plataformas, assegurando a liberdade de expressão e
o acesso à informação, o que redundou em um inquérito governamental sobre o tratamento
à informação ilegal e, em 2024, sobre o tratamento de notícias falsas. Em 2024, a Agência
Cultural terminou consulta pública sobre a adaptação da legislação de direito autoral para
permitir o desenvolvimento da IA generativa mediante processo de machine learning sobre
materiais protegidos. Em fevereiro de 2024, foi criado um Instituto para a Segurança da IA,
no âmbito da agência de promoção da tecnologia da informação. O instituto é responsável
por conduzir pesquisas no setor e examinar padrões e suas seguranças e realizar colaboração
internacional (METI, 2024).
RÚSSIA
A Rússia é um país cercado de forte controvérsia no que diz respeito ao
estado democrático e ao uso da internet. Costumeiramente acusada de influenciar eleições
mediante a disseminação de desinformação e o uso de robôs, o país mantém forte controle
sobre aplicações de internet, bem como sobre o conteúdo. Em que pese toda a carga de
denúncias, adotou, em 2021, as recomendações da Unesco para a Ética na Inteligência
Artificial.
Já em 2023, dando sequência à sua política de alto controle sobre os meios
de comunicação, foi aprovada uma lei estabelecendo regras para a recomendação de
algoritmos, que determina que as aplicações devem informar seus usuários sobre os critérios
de recomendação e que as tecnologias utilizadas devem seguir recomendações do órgão de
supervisão das comunicações. O órgão possui, ainda, poderes para bloquear as ferramentas
de recomendação, acessar as plataformas em casos de violações das leis, direitos dos cidadãos
ou em legítimo interesse. As plataformas devem atender os pedidos da autoridade no prazo
de até 24 horas.
Em 2024, a Estratégia Nacional para o Desenvolvimento da Inteligência
Artificial até 2030, emitida pelo citado órgão, foi atualizada para a promoção do
desenvolvimento de IA com foco em setores como saúde, educação, indústria e defesa.
Também busca suprir a baixa capacidade computacional, escassez de pessoal e ameaças no
escopo da segurança da informação. Ademais, determina que os algoritmos devem ser
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
18
submetidos a testes e avaliações especializadas para avaliação de riscos, por exemplo, de
preconceitos ou discriminação.
UNIÃO EUROPEIA
A Lei da Inteligência Artificial do bloco europeu passou por um extenso
processo de tramitação entre 2021 e 2023, chegando-se a um acordo entre Comissão
Europeia, o Conselho da Europa e o Parlamento Europeu, o chamado triálogo. A Lei, que
em março de 2024 encontrava-se em fase de redação final, não é válida para o âmbito militar,
de investigação científica e sistemas de códigos fonte abertos que não apresentem risco. É
prevista a criação de sandboxes regulatórios11 e a necessidade de avaliação de riscos aos direitos
fundamentais.
As prescrições da Lei são baseadas em análises de riscos, estes divididos
conforme a tabela a seguir (CE, 2024):
Nível do Permissão Exemplos de aplicações
risco
Inaceitável Proibido Classificação/pontuação social; raspagem de
dados biométricos ou faciais; policiamento
preditivo; reconhecimento de emoções.
Alto Permitido em Identificações biomédicas; avaliação educacional e
atendimento a vocacional; triagem e avaliação de trabalhadores;
padrões avaliação de riscos de crédito, inclusive de seguros
preestabelecidos de saúde; sistemas que possam influenciar
eleições.
Transparência Permitido desde que Representação de pessoas (deep fakes), chatbots.
com informações de
transparência
Mínimo Permitido sem Videojogos, filtros antispam
restrições e com
códigos de conduta
voluntários
Tabela I – Níveis de riscos e obrigações previstas na Lei de IA da UE.
A implementação da Lei, após sua promulgação, prevê a criação de um
órgão transnacional, no âmbito da Comissão Europeia, para monitorar a implementação da
Lei e a conformidade dos modelos de sistemas de IA (GPAI – General Purpose Artificial
11Sandboxes regulatórios são ambientes criados para exploração e experimentação de produtos e serviços sob
supervisão da entidade reguladora para a promoção da inovação e das micro e pequenas empresas.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
19
Inteligence Model) a que deverão ser submetidos todos os desenvolvedores a partir de
determinado risco. É definida a categoria ‘GPAI sistêmico’, para os casos em que o serviço
tenha utilizado para o seu treinamento quantidades muito grandes de processamento.12 Nesse
caso, o provedor deverá notificar a Comissão e apresentar seus argumentos indicando como
o seu sistema não apresenta riscos sistêmicos (FLI, 2024). A investigação de riscos sistêmicos
será baseada em relatórios científicos e circunstanciados, realizados por especialistas
independentes. Além do órgão central do bloco, os países membros deverão designar as
autoridades competentes para a aplicação do regulamento. A futura lei prevê aplicação de
multas de até 35 milhões de euros ou 7% do volume de negócios globais.
Com relação à responsabilização civil, há a proposição de um sistema que
combina dois objetivos, embora nenhum dos dois tenha ainda sido aprovado pelo
Parlamento Europeu. Primeiro, a alteração de um diploma já existente, o Product Liability
Directive (85/374/ECC), que trata da responsabilidade civil de fornecedores em razão de
produtos defeituosos, passando a incluir nesse a inteligência artificial. Tal diploma prevê
regras de responsabilidade subjetiva (art. 4º), mas solidária (art. 5º) (EEC, 1985).
O segundo diploma, baseado na Resolução 2020/214 do Parlamento
Europeu, visa à criação de um sistema específico de responsabilidade civil para a IA (EU,
2020). A proposta estabelece como regra uma responsabilidade subjetiva, evitando hipóteses
de responsabilidade objetiva, sob o argumento da dificuldade que traria para a diversidade
dos regimes jurídicos de responsabilidade de cada país-membro. 13
Outras normativas permanecem sendo aplicáveis, como, por exemplo, a
Diretiva 2000/31-EC, aplicada ao comércio eletrônico, em que o intermediário responsável
pela entrega da informação não é responsabilizado pelo seu conteúdo – instituto do “mero
conduíte”(art. 2o, 5) (EU, 2024).
Já prestadores de IA e aqueles que se encontram em regime de sandbox
regulatório são responsabilizados pelos danos infligidos (a responsabilidade civil a que nos
referíamos em sessão anterior). Entretanto, os últimos não receberão penalidades
administrativas se em cumprimento das exigências do agente regulador (art. 53, 4).
12A barreira é 10 25 operações de ponto flutuante por segundo – FLOPS.
13Uma das alternativas em discussão nesta temática, propõe regras para que o requerente tenha provas mais
contundentes de que houve uma “presunção de causalidade” com o uso da IA (EPRS, 2022).
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
20
REINO UNIDO
O Reino Unido, seguindo uma tradição de abordagem regulatória leve
(light-touch approach), priorizou a emissão de guias ou recomendações para cada setor da
economia, tais como as Estratégias Nacionais de IA e de Dados, ambas de 2023. Anteriores
a essas estratégias nacionais, em 2022, os ministérios relacionados com as comunicações,
indústria e comercio e a agência de IA14 lançaram uma política pró-inovação para a regulação
da IA (Holistic, 2024). O documento, que serve como guia regulatório para as agências de
cada setor, estabelece as seguintes diretrizes a serem seguidas: i) transparência; ii) justiça; iii)
segurança; iv) privacidade; v) responsabilidade; e vi) mecanismos de reparação e contestação.
Objetivos similares foram emitidos pelo órgão mais recentemente criado para o fomento da
ciência, tecnologia e inovação, em 2023, assim como novos centros para a inovação e de
processamento de dados do governo15.
Existem, no entanto, leis que possuem pontos relevantes e que interagem
com a IA. A lei consumerista, por exemplo, possui provisões para evitar a discriminação
algorítmica e a lei de proteção de dados restringe decisões de perfilhamento16 e de decisões
automáticas (Holistical, 2024).
Todavia, e da mesma forma que nos demais países, existem projetos de lei
para regular de maneira ampla a IA. Além disso, há propostas mais pontuais, como por
exemplo, para veículos autônomos.
5 O ARCABOUÇO BRASILEIRO RELATIVO À IA
De uma maneira bem resumida, não há lei especifica para o tratamento da
IA no Brasil. Existem, porém, diversos instrumentos que tratam de distintos aspectos, senão
pontuais. Em primeiro lugar é importante dizer que o país adotou as recomendações da
Unesco aqui descritas anteriormente. Desde 2018, o país já possui sua Estratégia Brasileira
para a Transformação Digital (E-Digital), elaborada por diversas entidades governamentais.
Entre suas ações estratégicas foi identificada a necessidade de avaliar os impactos sociais e
econômicos da IA, “propondo políticas que mitiguem seus efeitos negativos ao mesmo
14 Os órgãos são: Department for Culture, Media, and Sport, Department for Business, Energy & Industrial
Strategy, e Office for Artificial Intelligence.
15 Centre for Data Ethics and Innovation (CDEI) e o Central Digital and Data Office (CDDO).
16 Perfilhamento é um termo utilizado para a criação de perfis dos usuários com base em suas preferências, isto
é, dados coletados.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
21
tempo em que maximizem seus efeitos positivos” (Brasil, 2018). Quase que em paralelo à E-
Digital, o país publicou também seu Plano Nacional de Internet de IoT17 (Decreto no
9.854/19). A IoT é intrinsicamente ligada à IA, assim, é de se esperar que o Plano e a E-
Digital tenham grande diálogo entre si. De fato, relatório que analisa o panorama regulatório
da IA no país, organizado pelo Instituto de Tecnologia e Sociedade (Perrone e Bottino,
2022), indica que todos os eixos do Plano gravitam ao redor da IA:
Para demonstrar a centralidade da AI no e-Digital, vale
destacar que (i) o eixo habilitador “Infraestrutura e acesso às TICs” levanta a
necessidade de capacitação do setor em relação aos desafios relacionados às
tecnologias de fronteira em informação e comunicação (análise de big data,
manufatura 4.0, AI e robótica, IoT, etc.); (ii) o eixo habilitador “Confiança no
Ambiente Digital” debate transparência algorítmica, regulamentação da
economia de dados, privacidade e o papel do Estado em “procurar proteger
seus cidadãos sem inibir a inovação e o uso benéfico de novas tecnologias”;
e (iii) o eixo de transformação digital “Economia Baseada em Dados” aponta
como uma de suas ações estratégicas a avaliação dos “potenciais impactos
sociais e econômicos de tecnologias digitais disruptivas, como Inteligência
Artificial e Big Data, propondo políticas que mitiguem seus efeitos negativos
ao mesmo tempo em que maximizem seus efeitos positivos.
As estratégias foram evoluindo, sendo recentemente reconhecida a
necessidade de criação de um Sistema Nacional para a Transformação Digital (SinDigital). O
arranjo, do âmbito do MCTI, conta com uma nova E-Digital atualizada para o período 2022-
2026 e, em 2021, foi instituída a Estratégia Brasileira de Inteligência Artificial (EBIA) pela
Portaria MCTI nº 4.617, de 6 de abril de 2021. Conforme a última E-digital, a EBIA foi
instituída:
...a fim de nortear as ações do Estado brasileiro voltadas para
estimular a pesquisa, a inovação e o desenvolvimento de soluções em
Inteligência Artificial, bem como seu uso consciente, ético e em prol de um
futuro melhor. A EBIA fundamenta-se nos cinco princípios definidos pela
OCDE e endossados pelo Brasil para uma gestão responsável dos sistemas
17 Internet of Things (IoT), Internet das Coisas, são dispositivos (máquinas ou equipamentos, como caixas
eletrônicos ou terminais de pagamento, sem operação humana) conectados à internet.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
22
de IA, quais sejam: (i) crescimento inclusivo, o desenvolvimento sustentável
e o bem-estar; (ii) valores centrados no ser humano e na equidade; (iii)
transparência e explicabilidade; (iv) robustez, segurança e proteção e; (v) a
responsabilização ou a prestação de contas (accountability). (Brasil, 2022)
Na esfera legal, em 2018, foi aprovada a Lei Geral de Proteção de Dados
Pessoais – LGPD (Lei no 13.709/2018), que, apesar de não possuir de maneira explícita
dispositivos sobre IA, por regulamentar a forma como os dados pessoais devem ser tratados
por governos e empresas, estabelece diversos parâmetros que servem para balizar o uso e o
desenvolvimento dessa tecnologia. Por exemplo, o tratamento de dados – e por consequência
a IA - deve observar a boa-fé e os princípios: da finalidade legítima, ser adequado; necessário;
de livre acesso; assegurada a qualidade dos dados; ser transparente; seguro; da prevenção; da
não discriminação e da responsabilização e prestação de contas (art. 6o).
Curioso destacar que durante a tramitação da LGPD houve diversas
tentativas de introduzir a possibilidade de revisão de procedimentos automatizados por
pessoa natural, o que foi vetado pelo Poder Executivo. Essa salvaguarda seria muito bem-
vinda pelos cidadãos e se torna ainda mais importante, poucos anos depois, com esta
discussão sobre IA. Em complemento a essa liberdade de ação, a LGPD recomenda, aos
agentes de tratamento:
Art. 50. Os controladores e operadores, no âmbito de suas
competências, pelo tratamento de dados pessoais, individualmente ou por
meio de associações, poderão formular regras de boas práticas e de
governança que estabeleçam as condições de organização, o regime de
funcionamento, os procedimentos, incluindo reclamações e petições de
titulares, as normas de segurança, os padrões técnicos, as obrigações
específicas para os diversos envolvidos no tratamento, as ações educativas,
os mecanismos internos de supervisão e de mitigação de riscos e outros
aspectos relacionados ao tratamento de dados pessoais.18
A LGPD criou também a Autoridade Nacional de Proteção de Dados,
com o objetivo de fiscalizar e aplicar sanções caso ocorram tratamentos de dados em
18Aplicando a LGPD à inteligência artificial, os provedores de serviços que se utilizem de IA e prestem serviços
para o usuário final são considerados “controladores” e todos os agentes intermediários que fazem parte da
cadeia de funcionamento são “operadores”.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
23
desacordo com a Lei. Apesar de a ANPD estar começando a ser estruturada e não estar
perfeitamente dotada de capacidade operacional e fiscalizatória, já realizou diversas atividades
dentro do seu papel. Entre elas, em 2024, deve concluir o processamento das contribuições
de uma Consulta Pública acerca da criação de sandbox regulatório para permitir o teste de
aplicações em IA para garantia da conformidade e a proteção dos direitos individuais. É
esperado que a futura regulamentação, em conjunto com as estratégias acima mencionadas,
possa desenvolver o ambiente da IA no país.
A proximidade do pleito eleitoral de 2024 trouxe mais um instrumento
regulatório que terá forte impacto na IA. Trata-se da regulamentação instituída pelo Tribunal
Superior Eleitoral, Resolução 23.732/2024. O instrumento determina novas regras para a
propaganda eleitoral, proibindo o uso de deep fakes, restringe o uso de chatbots e avatares e torna
obrigatória a identificação de conteúdos manipulados, além de conter diversos outros
dispositivos restritivos ao uso de desinformação durante as campanhas eleitorais.
Do arcabouço apresentado e da profusão de ferramentas razoavelmente
seguras já à disposição do público em geral, pode ser argumentado que não há necessidade
de se aprovar uma lei específica para regular o assunto. Porém, a profusão de golpes
eletrônicos e deep fakes, dentre outras mazelas, que são, diga-se de passagem, extremamente
lucrativas, apontam em direção diametralmente oposta. Assim, apesar das iniciativas
governamentais, da existência da LGPD e da Resolução, há um grande interesse parlamentar
para regular a matéria como veremos na próxima sessão.
6 AS PROPOSTAS LEGISLATIVAS NO BRASIL
Como mencionado na introdução, somente na Câmara dos Deputados há
42 projetos de lei que versam sobre IA. O primeiro, apresentado em 2020, dois outros em
2022, 29 projetos em 2023, e 8 apresentados no início de 2024. Apresentaremos nesta seção
as proposições em exame do Congresso que possuem o maior protagonismo no tratamento
da matéria: o PL 21/2020, de autoria do Dep. Eduardo Bismarck e aprovado na Câmara dos
Deputados e o PL 2338/2023, de autoria do Sen. Rodrigo Pacheco, ambos em tramitação
no Senado Federal.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
24
A PROPOSTA DA CÂMARA DOS DEPUTADOS (PL 21/2020)
Talvez a primeira proposta concreta para uma lei específica sobre
inteligência artificial na Câmara dos Deputados tenha sido o PL 21/2020. Resumidamente,
o projeto, em sua forma original, estabelece que o uso da IA deve seguir fundamentos
similares aos previstos na LGPD e que o seu desenvolvimento deve objetivar a pesquisa
ética, a competitividade, a inclusão e a cooperação. Além disso, entre seus princípios prevê
que o uso da IA deve buscar o benefício para as pessoas e o planeta, ter centralidade no ser
humano, ser transparente, seguro e outros. Como se vê, nessa parte principiológica, é bem
aderente aos requisitos de um desenvolvimento harmônico com a justeza social, tal como
previsto nos demais instrumentos aqui analisados, em especial as Recomendações da Unesco.
O projeto possui diversos dispositivos com o intuito de engajamento no desenvolvimento e
uso da IA por parte do Poder Público, nos três níveis da Federação. Por fim, o PL insta à
formulação de “estudos e planos para promover a capacitação humana e para a definição de
boas práticas para o desenvolvimento ético e responsável dos sistemas de inteligência
artificial no País” (art. 15). Entretanto, o PL finalmente aprovado em Plenário sofreu diversas
alterações.
Em Plenário, a relatora, Dep. Luisa Canziani, readequou os dispositivos
principiológicos do projeto, buscando dar uma maior ênfase à “relevância da inteligência
artificial para a inovação, o aumento da competitividade, o crescimento econômico
sustentável e inclusivo e a promoção do desenvolvimento humano e social”, tal como
disposto no texto final no caput do art. 3o. Ademais, foram explicitadas quais diretrizes o
Poder Público deve observar quando da regulamentação da matéria, entre elas: i) intervenção
subsidiária; ii) atuação setorial dos órgãos de governo; iii) gestão baseada em risco; iv)
normativos precedidos por consulta pública; v) análise de impacto regulatório; vi)
responsabilização subjetiva. É determinado ainda que sistemas de baixo risco devem ter
regulação flexível e, para aqueles de alto risco, os órgãos públicos poderão requerer
informações sobre as medidas de segurança e prevenção adotadas. Com relação à
responsabilização, a proposta aponta para que a regulamentação a ser expedida venha a “se
pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses
agentes” e outros atenuantes. Ademais, em relações consumeristas, a reparação dos danos
causados será limitada na “sua participação efetiva no evento danoso”.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
25
Por último, enquanto o PL original previa que a Administração poderia
elaborar estudos e planos para a promoção da IA, o texto aprovado indica a possiblidade de
existência de regulações setoriais, isto é, não prevendo, necessariamente, um órgão regulador
central.
A proposta, aprovada na Câmara Baixa em menos de dois anos de
tramitação,19 está em análise no Senado Federal e, encontra-se apensada a outra, oriunda do
Relatório Final da Comissão de Juristas criada para subsidiar a temática no Senado Federal.
A proposta recebeu o número PL 2338/2023, e foi apresentado pelo Presidente do Senado,
Sen. Rodrigo Pacheco. Além do PL 21/20, outros oito PLs estão apensados a essa
proposição que aguarda deliberação da Comissão Temporária Interna sobre Inteligência
Artificial no Brasil.
A PROPOSTA DO SENADO FEDERAL (PL 2338/2023)
O PL 2338/2023 possui, também, fundamentos, princípios, finalidades e
proteções às garantias individuais que em muito se assemelham ao projeto apenso aprovado
pela Câmara dos Deputados. Porém, há diferenças entre eles. Ressalte-se a possibilidade de
solicitação de intervenção ou revisão humana em casos relevantes e a vedação expressa à
discriminação em decorrência do uso de dados sensíveis (raça, gênero, orientação sexual,
etc.) ou de situações de “vulnerabilidade de pessoas pertencentes a um grupo específico”.
Com relação aos riscos, o projeto prevê sistemas de risco excessivo e de alto risco. Para
ambos os casos o fornecedor deverá realizar avaliação prévia quantos aos riscos inerentes ao
serviço e, caso seja identificado como de alto risco, poderá ser exigida “avaliação de impacto
algorítmico” pela autoridade competente. Sistemas de alto risco são vedados ou permitidos
somente em atividades de segurança pública previstas em lei.
Para enquadramento entre as atividades de risco excessivo, portanto,
vedadas, estão previstas as seguintes categorias: i) emprego de técnicas subliminares que
possam resultar em comportamentos prejudiciais à saúde ou segurança; ii) exploração de
vulnerabilidades de grupos sociais específicos; iii) sistemas de pontuação social para o acesso
19 Após o projeto ter ficado mais de um ano sem deliberação da primeira comissão temática para a qual foi
distribuído, foi aprovado regime de urgência para a matéria e levada ao Plenário sem nenhum parecer de mérito,
em 06/07/2021. Em Plenário, foi oferecido o primeiro parecer pela relatora, Dep. Luisa Canziani, em
01/09/2021, tendo sido aprovado o projeto em 29/09/2021.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
26
a bens e serviços e políticas públicas. As categorias poderão ser atualizadas pela autoridade
competente mediante consulta pública.
O rol de atividades de alto risco é mais extenso, sendo previstas quatorze
categorias. São elas: i) gestão de infraestruturas críticas; ii) educação e formação profissional;
iii) avaliação de candidatos na área trabalhista; iv) critérios de elegibilidade a serviços
essenciais e de seguridade; v) classificação de crédito; vi) resposta a serviço de emergências;
vii) administração da justiça; viii) veículos autônomos; ix) saúde; x) biometria; xi) investigação
em segurança pública; xii) pesquisas criminais em grandes conjuntos de dados; xiii) avaliação
de provas em decurso de investigações; e xiv) imigração.
Com relação à responsabilização civil, o projeto do Senado Federal
estabelece que o fornecedor “que cause dano patrimonial, moral, individual ou coletivo é
obrigado a repará-lo integralmente” (art. 27). O artigo prevê duas exceções, que preveem
responsabilidade objetiva e presumida:
§ 1º Quando se tratar de sistema de inteligência artificial de
alto risco ou de risco excessivo, o fornecedor ou operador respondem
objetivamente pelos danos causados, na medida de sua participação no dano.
§ 2º Quando não se tratar de sistema de inteligência artificial
de alto risco, a culpa do agente causador do dano será presumida, aplicando-
se a inversão do ônus da prova em favor da vítima.
Além dessas exceções, o projeto remete ao Código de Defesa do
Consumidor, em casos de relação consumerista, e isenta os agentes quando:
I – comprovarem que não colocaram em circulação,
empregaram ou tiraram proveito do sistema de inteligência artificial; ou
II – comprovarem que o dano é decorrente de fato exclusivo
da vítima ou de terceiro, assim como de caso fortuito externo.
O projeto determina de maneira expressa que o Poder Executivo deverá
apontar autoridade competente de fiscalização, com poder de aplicação de sanções. Bastante
similares à da LGPD, as penalidades vão de advertência a proibição de participação em
regime de sandbox regulatório, suspensão temporária ou definitiva de desenvolvimento e
operação de sistemas de IA ou, ainda, proibição de tratamento de bases de dados.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
27
Além de prever a edição de regulamentos de sandbox regulatórios, a
proposta permite a utilização de obras protegidas por direito autoral para mineração de dados
“feitas por organizações e instituições de pesquisa, de jornalismo e por museus, arquivos e
bibliotecas”.
7 CONSIDERAÇÕES FINAIS
Talvez a questão mais complexa a resolver a respeita da regulação da IA
seja a correta e proporcional responsabilização em caso de dano, prejuízo ou infração. Para
um simples usuário de internet não há como se exigir que ele consiga diferenciar os
responsáveis por cada parte do quebra-cabeça. A partir do momento em que ele entra nos
“domínios” de um sistema de IA, em sua visão e capacidade como usuário, todas as
consequências e ações derivadas deveriam ser de responsabilidade do prestador do serviço.
Porém, todo o debate que envolve a matéria indica que responsabilizar indiscriminadamente
toda a longa cadeia de produção também não seria uma solução equilibrada. Na verdade, o
fundamental é que o sistema possua rastreabilidade e transparência suficiente para que todos
os agentes possam ser corretamente identificados e responsabilizados.
Lançando mão de alguns exemplos, pudemos vislumbrar essas
dificuldades. Em um sistema de IA generativa, por exemplo, não há como individualizar a
responsabilidade de um data labeler pelo fato do sistema dar uma resposta inadequada ou
“alucinada”. Da mesma forma, seria descabido responsabilizar tão somente a empresa
produtora do sistema operacional de um computador por um aplicativo que tenha mau
funcionamento ou apresente conteúdo ilegal. Assim como não seria justo processar
exclusivamente um agente de IA que tenha errado na estimativa do tempo da rota de um
veículo e o cliente perder o prazo de uma reunião.
Na mesma linha de raciocínio, podemos indagar se seria justificável um
assinante ter que processar uma empresa de equipamentos que se utiliza de IA para gerenciar
o tráfego de uma rede de telecomunicações pela queda de uma ligação telefônica ou, do
contrário, a empresa de telefonia se escusar dessa queda, já que o gerenciamento é
terceirizado.
Por outro lado, os atores da cadeia de serviços, quando responsáveis,
também devem ser responsabilizados. Por exemplo, uma empresa aérea que tiver sido
processada por um passageiro vítima de overbooking usar seu direito de regresso e processar
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
28
aqueles que geraram o defeito seria perfeitamente justo. Mas esse tipo de discussão é
complexa e inconclusa. Os pais de um aluno poderiam processar a empresa de IA generativa
pelo filho ter sido mal avaliado ao ter submetido um trabalho com alucinações? Ou os pais
deveriam ser processados pela escola por terem permitido que o filho utilizasse essa IA?
A partir desses exemplos concretos podemos inferir que a dúvida sobre a
definição correta de onde termina a responsabilização de um agente e começa a do outro
será extremamente difícil de ser dirimida com base em um simples dispositivo previsto em
lei. Ademais, certamente não cabe ao usuário a obrigação de discernir sequer se existem
vários agentes envolvidos em um serviço prestado com o auxílio ou mediante IA.
A abordagem adotada nos países para essa questão varia e não há muita
clareza nos instrumentos específicos. Na UE foi adotada a obrigação de reparar o dano,
porém, com exceções, como por exemplo aquela contida no regulamento do comércio
eletrônico em que provedores intermediários são “meros conduítes” da informação. Outros
países utilizam uma abordagem baseada em códigos de conduta e regras por proximidade.
Provavelmente, esse assunto ainda precise de abordagens mais específicas ou os arcabouços
existentes serem mais bem testados nos tribunais.
No caso brasileiro, pode-se dizer que há um certo nível de tranquilidade
para consumidores e usuários finais pelo fato da existência do CDC, da LGPD e da ANPD,
que asseguram a responsabilização civil objetiva e solidária. Por outro lado, não têm
assegurado o direito de terem suas reclamações revisadas por pessoas naturais – tendo que
se resignar e aprender a lidar com frustrações quando conduzidos por um chatbot, ter extrema
dificuldade ao serem derivados para um atendimento por humanos e ao final, desistirem e
não terem seu problema resolvido.
De outra parte, como podemos supor dos exemplos acima, haverá um
grande desincentivo à prestação de serviços com o uso de IA se as empresas não puderem
se precaver de certas isenções (as excludentes) em casos de não haver dolo e sobretudo em
casos de serem meros transportadoras das informações geradas por outros. Da mesma
forma, não haverá incentivos para startups se não for previsto o sandbox regulatório para estas
e, neste caso, o Brasil poderá perder mais uma oportunidade de desenvolvimento. Ao mesmo
tempo, o sandbox não pode ser tal que usuários fiquem totalmente desprotegidos e expostos
a perigos.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
29
Como dito, o direito consumerista consolidou no país a responsabilidade
objetiva e solidária. Entretanto, a proposta aprovada na Câmara dos Deputados direciona
para uma regulamentação que privilegia a responsabilidade subjetiva e determina que a
reparação do dano será limitada na medida da participação do agente. Já a proposta inicial
do Senado Federal dispõe que, em atividades de alto risco, a responsabilidade será
presumidamente do agente de IA. Ademais, se o dano for causado por terceiro, há isenção
de culpa.
Na esfera eleitoral, contudo, a resolução do TSE, que se antecipou ao
Congresso Nacional e terá efeitos para o pleito eleitoral de 2024, indica claramente
responsabilidades, prevendo ações rápidas e responsabilização inequívoca de autores e
plataformas.
A análise apontou, de outra parte, que um dos pilares em que a futura lei
deva ser ancorada seja a análise e classificação de riscos, e dentro dessa categorização quais
atividades devem ser banidas e quais outras sujeitas a maiores ou menores proteções. Talvez
exista grande consenso no país para se proibir armas inteligentes ou o ranqueamento não ético
ou discriminatório de pessoas para o acesso a serviços públicos, mas o mesmo não pode ser
dito sobre quais níveis de proteção devem ser dados aos cidadãos quando o assunto é análise
de crédito ou entrevistas de emprego. Sim, há um grande grau de consenso sobre a
necessidade de se criar categorizações e de que exista, ao menos, uma instituição a cargo
dessa tarefa e que essa avaliação seja feita de forma contínua. Contudo, é bem sabido que um
dos principais problemas na implementação de políticas públicas é a fiscalização. Assim,
qualquer que seja a decisão sobre a categorização e restrição ou proibição de atividades, ela
deve ser acompanhada de forte fiscalização e, para tal, são necessários recursos. Chama a
atenção que enquanto diversas empresas contribuem com taxas para a manutenção do
aparato fiscalizatório setorial, não tenha sido proposta uma forma de financiamento à
fiscalização da IA. Há, sim, nas propostas princípios e fundamentos objetivando o
desenvolvimento tecnológico nacional no setor, mas não há nada de mais concreto para
incentivar e financiar a inovação no setor, bem como sua fiscalização.
Com relação à existência de um agente regulador, as propostas e
implementações são mais específicas, mas também variam, lá fora e aqui no Parlamento. Na
UE é prevista a criação de uma agência supranacional e que sejam apontadas autoridades
responsáveis pelo assunto, em cada país do bloco – não necessariamente que seja criada uma
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
30
nova. Na Rússia a regulamentação parece estar toda sendo encampada pelo órgão
responsável pelas comunicações. Na China são envolvidos vários órgãos e há diversas
iniciativas de regulamentação. Já nos EUA, Japão e Reino Unido a abordagem é mais leve e
segmentada entre agências.
A proposta aprovada pela Câmara dos Deputados e o projeto do Senado
Federal novamente possuem diferenças. Enquanto a proposta inicial e a finalmente aprovada
pela Câmara Baixa eram por uma regulação totalmente descentralizada, o desenho inicial da
Câmara Alta é pela indicação de uma entidade reguladora única.
Há, porém, uma pergunta anterior a ser realizada. Considerando as
externalidades positivas que a IA já conseguiu apresentar no Brasil para cidadãos,
consumidores, governos e empresas, e o seu rápido desenvolvimento e aprimoramento, seria
realmente necessária a aprovação de uma lei brasileira para o setor? Certamente, é um
questionamento válido. A desregulamentação propicia a inovação, o florescimento de
atividades e o crescimento econômico. Porém, como toda tecnologia, os pontos negativos
da desregulamentação também devem ser sopesados. Afinal de contas, estamos sendo
inundados diariamente com golpes eletrônicos de todo tipo, extremamente lucrativos, muitos
dos quais, por exemplo, os deep fakes, proliferam com a ajuda da IA. Talvez com os
instrumentos já em vigência, esses aspectos deletérios já possam ser combatidos
corretamente. Certamente, há argumentos para ambos os lados.
A parte em que não há muita polêmica em todas as discussões, propostas
e regulamentações é a de que a IA deve ser utilizada para promover o bem, a inclusão, a
justiça social e o desenvolvimento socioeconômico, todas essas finalidades e princípios de
acordo com as Recomendações da Unesco (e com as três leis da robótica de Asimov!).
Por fim cabe reconhecer que possivelmente estejamos no limiar de uma
transformação para uma sociedade em que a interação homem-máquina será mais comum
do que a homem-homem. Também há de se admitir que a IA melhorou sensivelmente nos
últimos anos e os sistemas estão sendo aperfeiçoados constantemente. As dúvidas de alguns
poucos anos atrás não mais caberão em um futuro próximo. Assim, há a expectativa de que
o país decida por uma legislação que permita desenvolver um ambiente de IA que seja seguro
para seus cidadãos e, ao mesmo tempo, permita o desenvolvimento tecnológico com vistas
ao desenvolvimento social. Não se trata apenas de abraçar a IA e esperar o desenvolvimento
social e uma consequente distribuição de renda. O dinheiro e a inovação gerados com a IA
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
31
são concentrados em poucas empresas globais. É certo que há dispositivos que visam à
inclusão desse objetivo desenvolvimentista nas propostas em análise no Congresso Nacional.
Porém, mais poderia ser feito, como por exemplo, estabelecer instrumentos de incentivo ao
fomento da inovação e ao desenvolvimento da indústria nacional de IA, mediante a
destinação de uma pequena parte das receitas auferidas pelas gigantes do setor. Deve-se
almejar participar ativamente dessa nova fase de desenvolvimento econômico e que este seja
apropriado pelos brasileiros, de modo a contribuir para que o país deixe de ocupar a posição
de mero mercado consumidor de tecnologia importada e remetente de lucros a empresas
transnacionais.
8 REFERÊNCIAS
AFP, 2023. “Sul-coreano morre esmagado por robô industrial”. G1, 08/11/2023. Disponível em
https://g1.globo.com/mundo/noticia/2023/11/08/sul-coreano-morre-esmagado-por-robo-
industrial.ghtml, acessado em 12/03/2024.
ACLU, 2018. “Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots”. ACLU
News & Commentary, 26/07/2018. Disponível em https://www.aclu.org/news/privacy-
technology/amazons-face-recognition-falsely-matched-28, acessado em 05/03/2024.
Angwin, Larson, Mattu e Kirchner, 2016. “Machine Bias”. Propublica, 23/05/2016. Disponível em
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, acessado
em 05/03/2024.
Asimov, 2015. “Eu, Robô”. Livro. Brasil: Editora Aleph.
Brasil, 2018. “Estratégia Brasileira para a Transformação Digital (E-Digital)”. Ministério da Ciência, Tecnologia,
Inovações e Comunicações. Disponível em: https://www.gov.br/mcti/pt-br/acompanhe-o-
mcti/transformacaodigital/estrategia-digital, acessado em 07/03/2024.
Brasil, 2022. “Estratégia Brasileira para a Transformação Digital (E-Digital). Ciclo 20222026.” Ministério da
Ciência, Tecnologia e Inovações (MCTI), 2022. Disponível em https://www.gov.br/mcti/pt-
br/acompanhe-o-mcti/transformacaodigital/arquivosestrategiadigital/e-digital_ciclo_2022-
2026.pdf, acessado em 07/03/2024.
CE, 2024. “Political agreement on the European AI Act”. Apresentação.
Commerce, 2023. “Artificial Intelligence”. US Department of Commerce. Disponível em
https://www.commerce.gov/issues/artificial-intelligence, acessado em 06/03/2023.
Conjur, 2023. “CNJ vai investigar juiz que usou tese inventada pelo ChatGPT para escrever decisão”. Conjur,
12/11/2023. Disponível em https://www.conjur.com.br/2023-nov-12/cnj-vai-investigar-juiz-que-
usou-tese-inventada-pelo-chatgpt-para-escrever-decisao/, acessado em 05/03/2024.
De Vynck e Tiku, 2024. “Google takes down Gemini AI image generator. Here’s what you need to know.”.
Washington post, 23/02/2024. Disponível em
https://www.washingtonpost.com/technology/2024/02/22/google-gemini-ai-image-generation-
pause/, acessado em 05/03/2024.
EEC, 1985. “Directiva relativa à aproximação das disposições legislativas, regulamentares e administrativas dos
Estados-membros em matéria de responsabilidade decorrente dos produtos defeituosos”.
85/374/CEE.. Disponível em: https://op.europa.eu/web/eu-law-in-force/bibliographic-details/-
/elif-publication/b21bef4e-b528-49e2-a0f9-142dc503969a, acessado em 13/03/2024.
EPRS, 2022. “Artificial intelligence liability directive”. European Parliamentary Research Service (Briefing - EU
Legislation in Progress). Disponível em:
https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/739342/EPRS_BRI(2023)739342_
EN.pdf, acessado em 12/03/2024.
EU, 2020. “Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à
Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial”. Disponível em:
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_PT.html#title1, acessado em
13/03/2024.
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle
32
EU, 2024. “Proposal for a Regulation of the European Parliament and of the Council laying down harmonised
rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts
- Analysis of the final compromise text with a view to agreement”. Council of the European Union,
26/01/2024. Disponível em: https://data.consilium.europa.eu/doc/document/ST-5662-2024-
INIT/en/pdf, acessado em 11/03/2024
FLI, 2024. “High-level summary of the AI Act”. Eu Artificial Intelligence Act. Future of Life Institute,
28/02/2024. Disponível em https://artificialintelligenceact.eu/high-level-summary/, acessado em
06/03/2024.
G1, 2023. “Advogado usa casos inventados pelo ChatGPT em processo judicial e leva 'puxão de orelha' de
juiz”. G1, 29/05/2023. Disponível em
https://g1.globo.com/tecnologia/noticia/2023/05/29/advogado-usa-casos-inventados-pelo-
chatgpt-em-processo-judicial-e-leva-puxao-de-orelha-de-juiz.ghtml, acessado em 05/03/2024.
Holistic, 2024. “The State of AI Regulations in 2024”. Holistic AI. Janeiro/2024. Disponível em
https://www.holisticai.com/papers/the-state-of-ai-regulations-in-2024, acessado em 06/03/2024.
House, 2023. “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial
Intelligence”. Disponível em https://www.whitehouse.gov/briefing-room/presidential-
actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-
artificial-intelligence/, acessado em 06/03/2023.
METI, 2024. “Launch of AI Safety Institute”. Joint Release with Cabinet Office and Information-technology
Promotion Agency, 14/02/2024. Disponível em
https://www.meti.go.jp/english/press/2024/0214_001.html, acessado em 06/04/2024.
MRE, 2024. “Regulação De Inteligência Artificial Na China”. E-mail de 27/02/2024.
Perrigo, 2023. “Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less
Toxic”. Time, 18/01/2023. Disponível em : https://time.com/6247678/openai-chatgpt-kenya-
workers/, acessado em 11/03/2023.
Perrone e Bottino, 2022. “Panorama regulatório de Inteligência Artificial no Brasil”. Instituto de Tecnologia e
Sociedade do Rio de Janeiro (ITS Rio). Disponível em: https://itsrio.org/wp-
content/uploads/2022/04/Relatorio-Panorama-IA.pdf, acessado em 07/03/2023.
ONU, 2023. “ONU e Cruz Vermelha querem regras urgentes sobre sistemas automáticos de armas”. ONU
News, 05/10/2023. Disponível em https://news.un.org/pt/story/2023/10/1821372, acessado em
05/03/2024.
ONU, 2023a. “Interim Report: Governing AI for Humanity”. AI Advisory Body. Disponível em:
https://www.un.org/ai-advisory-body, acessado em 07/03/2024.
TJDFT, 2021. “Responsabilidade do intermediador na venda feita pela internet”. Disponível em
https://www.tjdft.jus.br/consultas/jurisprudencia/jurisprudencia-em-temas/cdc-na-visao-do-tjdft-
1/o-consumidor-na-internet/responsabilidade-do-intermediador-na-venda-feita-pela-internet,
acessado em 04/03/2024.
Vaswani, Shazeer, Parmar et al, 2017. “Attention Is All You Need”. NeurIPS, Cornell University. arXiv preprint
arXiv:1706.03762. Disponível em: https://arxiv.org/abs/1706.03762, acessado em 15/03/2024.
UIT, 2019. “AI for Good – Global Summit 2017 - Report”. Disponível em https://www.itu.int/en/ITU-
T/AI/Pages/201706-default.aspx, acessado em 04/03/2024.
Unesco, 2023. “Ethics of Artificial Intelligence”. Disponível em https://www.unesco.org/en/artificial-
intelligence/recommendation-ethics, acessado em 06/03/2024.
2024-1078
Claudio Nazareno
O conteúdo deste trabalho é de exclusiva responsabilidade de seu autor.
Saiba mais sobre a Consultoria Legislativa da Câmara dos Deputados e conheça outros estudos em: www.camara.leg.br/conle