Conceitos em Ciência de Dados e Inteligência
Artificial
Conteudista: Prof. Me. Wellington Fernando Bastos
Revisão Textual: Esp. Maiara Stéfani Costa Brandão
Objetivo da Unidade:
Apresentar a Inteligência Artificial e suas ramificações, destacando os principais
pontos de convergência entre IA, Ciência de Dados e Business Analytics, bem
como todo o processo de obtenção (integração e ingestão) de dados até o seu
tratamento para processamento.
ʪ Material Teórico
ʪ Material Complementar
ʪ Referências
1 /3
ʪ Material Teórico
Inteligência Articial (IA) (Artificial Intelligence – AI)
A Inteligência Artificial faz referência a sistemas ou máquinas que têm por objetivo imitar ou
simular as habilidades cognitivas do cérebro humano para realizar uma variedade de tarefas, das
mais simples às mais complexas em menor tempo e melhor do que os seres humanos, exemplo:
Capacidade de compreender melhor grandes quantidades de dados;
Usar previsões para automatizar tarefas complexas de forma mais eficiente;
Ajudar em tomadas de decisões assertivas;
Se aprimorar com a iteratividade da entrada de dados e informações que coletam.
Ou seja, a IA tem a nossa capacidade de aprender com a experiência e construir entidades
inteligentes de forma autônoma, rápida e segura para ajudar a decidir com sabedoria.
Há muitas variações de IA, mas o conceito pode ser amplamente definido como sistemas
inteligentes com a capacidade de pensar e aprender (RUSSELL, 2010).
Para Goldschmidt (2010, p. 7), a Inteligência Artificial é uma ciência multidisciplinar que busca
desenvolver e aplicar técnicas computacionais para simular e obter resultados idênticos aos
padrões humanos de pensamento, aprendizado e soluções de problemas em atividades
específicas.
A IA age em áreas de uso geral como no reconhecimento de voz e em sistemas específicos como
jogos de computadores, sendo capaz de automatizar tarefas intelectuais que atualmente só
podem ser realizadas por seres humanos, sendo virtualmente relevante para qualquer esfera da
atividade intelectual humana.
Ainda segundo Russell e Norvig (2004), a IA é universal, podendo atuar em todos os campos do
conhecimento. Assim, fornece maior segurança quando lidam com informações importantes da
organização contribuindo para reduzir erros humanos e custos.
Origem da Inteligência Artificial
O tema Inteligência Artificial é tão inspirador que a indústria do cinema de Hollywood sempre o
retratou, e quando ouvimos sobre o tema remetemos ao que assistimos nos filmes, tendo uma
percepção de que a IA é desenvolvida e movida por robôs ou até mesmo que é “coisa de outro
mundo”.
O interessante é que a ideia da IA surgiu antes de existir as tecnologias que possibilitaram sua
implementação. Durante a Segunda Guerra Mundial, estudos de várias áreas foram buscar
respostas para que a máquina pudesse pensar e realizar o trabalho como os seres humanos.
Para Russell e Norvig (2004), o primeiro trabalho que teve relevância como um estudo de IA foi
executado por Warrem Macculloch e Walter Pitts (1943) que apresentam um artigo que fala, pela
primeira vez, de redes neurais, estruturas de raciocínio artificiais em forma de modelo
matemático que imitam o nosso sistema nervoso.
Em 1950, o matemático britânico Alan Turing introduziu em seu artigo Computing Machinery
and Intelligence, o que hoje é chamado de Teste de Turing, e titulou a pergunta “Pode uma
máquina pensar?” (TEIXEIRA, 1998).
O Teste de Turing é um fato importante que contribuiu para o avanço da Inteligência Artificial
(IA). Segundo Russel e Norvig (2004), o teste de Alan Turing tem o objetivo de analisar se um
sistema seria ou não inteligente. Este teste é composto por uma comunicação entre duas
pessoas e uma máquina. Uma das pessoas é o “interrogador”, a outra pessoa é a máquina que
responde às questões feitas por digitação pelo interrogador. O interrogador deveria identificar se
as respostas estariam vindo da pessoa ou da máquina. Se o interrogador não conseguisse
identificar a origem da resposta, o sistema passava no Teste de Turing.
Figura 1 – Inteligência Artificial – Teste de Turing
Fonte: Adaptada de Freepik
O termo Artificial Intelligence ou Inteligência Artificial (IA) surgiu, formalmente, no verão de
1956 nos Estados Unidos em um seminário de dois meses na Universidade Dartmouth, em
Hanover, ele foi cunhado pelo cientista da computação americano John McCarthy (WILKS,
2019), onde entre outros participantes destacam-se os principais: John McCarthy, Marvin
Minsky, Allen Newell e Herbert Simon.
Não há um consenso entre os autores por uma única definição sobre a IA. Assim, do ponto de
vista de (BARR; FEIGENBAUM, 1981, p. 27), a
“IA é a parte da ciência da computação que se preocupa em desenvolver sistemas
computacionais inteligentes, isto é, sistemas que exibem características, as quais
nós associamos com a inteligência no comportamento humano – por exemplo,
compreensão da linguagem, aprendizado, raciocínio, resolução de problemas etc.”
Mas, para Nilson e Genesereth (1987), “IA é o estudo do comportamento inteligente. Seu
objetivo final é uma teoria da inteligência que explique o comportamento das entidades
inteligentes naturais e que guie a criação de entidades capazes de comportamento inteligente”.
Outro ponto de vista comparativo de aprendizado de máquina e humanos é citado por Ribeiro
(2010, p. 8), que profere que “a inteligência artificial é uma ciência multidisciplinar que busca
desenvolver e aplicar técnicas computacionais que simulem o comportamento humano em
atividades específicas”.
Como Funciona a IA?
Com um processamento rápido, interativo, com grande quantidade de dados e fazendo uso de
algoritmos inteligentes, a IA funciona ao adaptar-se automaticamente ao reconhecimento de
padrões ou informações nos dados. Para que esse processo de aprendizado aconteça, o sistema
de Inteligência Artificial precisa ser constantemente alimentado com novos dados, no entanto,
é necessário combinar diferentes tecnologias que, juntas, possam conferir à máquina a
capacidade de imitar o raciocínio lógico humano. O campo de estudo de IA é muito amplo,
engloba muitas teorias, métodos e tecnologias, assim como subcampos.
Machine Learning (Aprendizado de Máquina)
Para Weber (2021), os sistemas computacionais que agem como humanos usam Inteligência
Artificial, estes sistemas inteligentes estão sob o controle de programas de computador que
podem aprender com a inteligência humana, que reflete a capacidade do nosso cérebro de
aprender. Isto é, assim como as pessoas, os computadores podem aprender a usar dados e
depois tomar decisões ou avaliações com base no que aprenderam.
O Aprendizado de Máquina é parte do campo maior da Inteligência Artificial e um dos pilares
fundamentais para que a IA consiga atingir o seu objetivo de aprender e evoluir de forma
autônoma.
Dessa maneira, o Machine Learning usa métodos matemáticos, estatística, física e redes neurais
e de otimização que permitem computadores a aprender e detectar padrões difíceis de discernir
a partir de dados passados dos parâmetros analisados e que estão fora do escopo da percepção
humana, sem ser especificamente programado para analisar um determinado conjunto de
dados ou satisfazer uma determinada conclusão.
Este programa é muito utilizado em sistemas de comércio eletrônico para identificar padrões e
sugerir recomendações personalizadas de produtos e serviços personalizados para o usuário.
Deep Learning (Aprendizado Profundo)
É o aprofundamento do Machine Learning, sendo outro pilar da Inteligência Artificial, com a
capacidade de tornar o aprendizado mais complexo e inteligente para disponibilizar resultados
precisos. Segundo Weber (2021), o Aprendizado Profundo organiza seus esforços de
computação em sistemas conhecidos como redes neurais. As redes são feitas de nós conectados
através dos quais os dados podem se mover e ser processados.
O Deep Learning, ou Aprendizagem Profunda (AP), é um subconjunto do Machine Learning, que é
utilizado em grandes e complexas redes neurais que seguem a mesma lógica da ligação entre
neurônios no cérebro humano com as muitas camadas de unidades de processamento, assim o
sistema aprende padrões complexos e a interpretar grandes quantidades de dados incorporados
aos avanços no poder computacional, em especial as unidades de processamento gráfico,
chamadas de GPUs (Graphics Processing Unit), que se mostraram adequadas para resolver de
forma eficiente as operações matriciais necessárias ao aprendizado de máquina.
Algumas das aplicações mais comuns que fazem uso do Deep Learning são:
Reconhecimento da fala;
Reconhecimento fácil;
Recomendações personalizadas;
Desenvolvimento de veículos autônomos;
Diagnósticos no setor de saúde;
Identificação de fake news.
Processamento de Linguagem Natural (PLN)
O Processamento de Linguagem Natural (PLN) consiste no desenvolvimento de modelos
computacionais para a realização de tarefas que dependem de informações apresentadas em
linguagem humana de modo natural. Os modelos computacionais de PLN buscam preencher a
lacuna entre a comunicação humana e o entendimento dos computadores.
Conforme aponta Liddy (2021), o objetivo da PLN é realizar o processamento de linguagem
semelhante ao humano. Além disso, a escolha da palavra "processamento" é muito deliberada e
não deve ser substituída por "compreensão".
Desse modo, o processamento de Linguagem Natural ajuda as máquinas a analisar, entender e
encontrar padrões que facilitam aos computadores a se comunicarem com seres humanos em
sua própria linguagem.
Dentro deste contexto, o PLN possibilita que aplicativos leiam textos, ouçam e interpretem falas,
identifiquem sentimentos e determinem quais trechos são mais relevantes na interação entre
homem e máquina através da linguagem humana.
Redes Neurais Artificiais (RNA)
São métodos de Deep Learning compostos de unidades interconectadas (neurônios), com
capacidade de reconhecimento de padrões complexos e com função de aprendizado dentro da
própria rede.
As RNA têm como base a arquitetura dos neurônios humanos, se assemelhando à obtenção do
conhecimento através do processo de aprendizado e retransmitindo-a entre unidades
interneurônios para armazenar o conhecimento. As RNAs são modelos matemáticos inspirados
na estrutura neural de organismos inteligentes e que adquirem conhecimento através da
experiência.
Para Goldschmidt (2010, p. 72-73), as
“Redes Neurais Artificiais são modelos matemáticos inspirados nos princípios de
funcionamento dos neurônios biológicos e na estrutura do cérebro. Estes modelos
têm capacidade de adquirir, armazenar e utilizar conhecimento experimental e
buscam simular computacionalmente habilidades humanas tais como
aprendizado, generalização, associação e abstração.”
Nesse sentido, as RNAs não exigem amplo conhecimento prévio da dificuldade para apresentar
uma solução. E os sistemas de processamento das RNAs são semelhantes a um treinamento,
quanto mais exigidas, treinadas e abastecidas com novos dados, mais forte e assertivo será o seu
resultado de processamento.
Ciência de Dados
Não é novidade que estamos vivendo em uma corrida contínua por dados. Com demandas
sempre crescentes por informações, as organizações privadas e públicas estão focadas
basicamente em tudo o que fazemos do nosso dia a dia que produz algum tipo de dado que seja
possível ser transformado em algo valioso para a organização gerando, assim, uma quantidade
astronômica de dados estruturados, semiestruturados e não-estruturados que são armazenados
em nuvem, daí vem o termo Big Data.
Desde um smartwatches que utiliza sensores para registrar nossos movimentos, posição
geográfica, batimentos cardíacos e padrões do sono, até o celular que registra nossa localização,
formas de pagamentos, passando por um simples web site que registra cada clique dos seus
usuários; basicamente tudo que fazemos no dia a dia gera dados que são enviados para
armazenamento em nuvem, gerando centenas de zettabytes por ano.
Os profissionais do International Data Corporation – IDC, (NEEDHAM – 2021) afirmam que a
produção de dados dobra a cada dois anos, em 2020, foram criados ou replicados 64,2 zettabytes
de dados e a previsão entre 2020 e 2025 e de 23% de crescimento anual. É importante
entendermos que dados sozinhos não nos dizem nada.
O que é a Ciência de Dados?
A Ciência de Dados é um conceito que não possui uma definição clara e formal em consenso
amplamente utilizado no campo, mas, mais especificamente, entende-se a Ciência de Dados
como um domínio de conhecimento multidisciplinar, que utiliza o método científico e técnicas
de análise de dados, Machine Learning e Inteligência Artificial, para resolver problemas reais,
trazendo à luz conhecimento estratégico e insights acionáveis para o negócio. Estes insights são
utilizados para que as empresas aprimorem seu processo de tomada de decisão, otimizando as
estratégias de negócio (CASTANHA, 2021).
Segundo Godsey (2017), as origens da Ciência de Dados como um campo de estudo estão em
algum lugar entre a estatística e o desenvolvimento de software.
O advento da Ciência de Dados está aliado ao surgimento do Big Data, sendo-lhe atribuído a
extração de informação útil a partir de imensas bases de dados complexas, dinâmicas,
heterogêneas e distribuídas (BUGNION; MANIVAN-NAN; NICOLAS, 2017).
Para atuar na área da Ciência de Dados, três domínios de conhecimento se inter-relacionam:
Ciência da Computação (Programação de Computadores, Inteligência Artificial e
Aprendizado de Máquina);
Matemática e estatística;
Conhecimento do domínio.
Os profissionais da Ciência de Dados devem entender o funcionamento dos algoritmos de
Aprendizado da Máquina, bem como saber interpretar os resultados, estatisticamente.
Sendo assim, a estatística é uma ferramenta essencial no arsenal de qualquer cientista de dados,
porque ajuda a desenvolver e estudar métodos para coletar, analisar, interpretar e apresentar
dados. As inúmeras metodologias utilizadas permitem aos cientistas de dados realizações como:
projetar experimentos e interpretar resultados para melhorar a tomada de decisão; construir
modelos de previsão; transformar dados em insights; fazer estimativas inteligentes etc.
(KAMPAKIS, 2020).
A atividade de interpretação é facilitada pela visualização da informação, a qual privilegia a
utilização de elementos de representação gráfica de informação.
Além do software e da matemática e estatística, é importante entender e compreender um
problema antes de tentar resolvê-lo. Neste contexto, o cientista de dados deve fazer uso da
expertise para a análise do contexto ou do domínio a qual deseja ter uma resposta. Conforme
Godsey (2017), um bom cientista de dados pode alternar entre domínios e começar a contribuir,
um pouco antes, para o efetivo sucesso da solução, o Conhecimento do Domínio do problema
deve ser disponível e amplamente utilizado no processo de tomada de decisão.
Business Analytics – BA (Analista de Negócios)
Diante do cenário competitivo, globalizado e o futuro incerto, o grande dilema é como as
organizações podem decidir com assertividade nas escolhas, e garantir que a melhor decisão
seja tomada visando o alcance do resultado almejado.
Para as organizações perpetuarem, faz-se necessário um bom planejamento estratégico,
tomada de decisão eficiente e gestão coerente, possibilitando, assim, encontrar soluções para
possíveis resoluções de problemas. Além disso, é importante evitar ao máximo tomada de
decisões que não estejam embasadas em dados e informações consistentes, que garantam êxito
no resultado. O processo em questão deve ser ágil, com maior precisão, sem burocracia, o que
nem sempre é possível nas organizações de Economia Clássica.
Para contribuir com decisões assertivas e ágeis, é necessário que as organizações cultivem a
cultura de empoderar e fazer uso efetivamente de sistemas computacionais inteligentes,
ajustados para serem capazes de aprender com a experiência, propiciar saídas inteligentes,
indicadores confiáveis e seguros ao tomador de decisão. Diante desta premissa, é importante
salientar que em vários setores públicos e privados, as empresas capturam e mantêm enormes
quantidades de dados sobre seus clientes, produtos e serviços que fornecem.
Para aproveitar os dados que são mantidos por várias plataformas digitais que estão
armazenados em bancos de dados e Data Warehouses, as organizações buscam traduzi-los em
insights que possam ser úteis para gerar valor com o Business Analytics (BA), que ajuda a
entender o que acontece com o negócio, melhorar a tomada de decisões e planejar o futuro.
O BA, com sua evolução, proporciona potencial de transformar os negócios, sendo utilizado nos
principais processos de tomadas de decisões de mercados, pois capacita os tomadores de
decisões com dados que os apoiam para tomá-las a nível operacional, tático e estratégico.
Assim, o BA tem por objetivo avaliar, analisar e interpretar todos os dados da organização para
fornecer informações sobre a situação da organização para ter uma resposta e não apenas
compreender e entender o cenário. Ou seja, é ter mais ação do que teoria para apresentar uma
otimização e entregar resultados práticos com velocidade, através de dashboards customizáveis
e relatórios sugestivos que promovam uma exploração qualitativa e quantitativa mais profunda
do cenário em questão para uma tomada de decisão baseada em dados.
O Business Intelligence (BI) faz uso de dados atuais e históricos para otimizar o desempenho no
presente e o Business Analytics (BA) é uma divisão especializada do (BI) que também se utiliza de
informações que aborda o histórico da companhia e do mercado, bem como do presente, no
entanto, a finalidade é preparar a empresa para o futuro, dessa maneira, utiliza análises
preditivas para resolver problemas antes de suas ocorrências.
Coleta e Integração de Dados
De diferentes formas, as organizações privadas e públicas investem ativamente na coleta de
dados e na sua utilização estratégica em suas atividades. A coleta de dados é realizada de forma
planejada para obter informações que possam ser utilizadas para melhor entender o usuário ou
cliente e assim ter um melhor serviço ou produto oferecido.
Um volume enorme de dados é coletado diariamente pelas organizações em vários canais e
formatos. Para fazer esta coleta tão diversificada, as organizações utilizam vários softwares para
armazenamento, coleta, integração, processamento e análise e aplicação.
No entanto, vale destacar que a coleta de dados é uma atividade que deve ser feita de forma
recorrente e consistente pelas empresas; se possível, fazer parte da sua rotina. Não basta
somente recolher essas informações uma vez só, esquecê-las e não repetir o processo.
Integração de Dados
A integração de dados é realizada após a coleta de dados de múltiplas fontes. Ela consiste em
combinar dados de diferentes fontes para obter informações valiosas (BATISTA, 2018).
Para Bouzeghoub et al. (2002), a integração é importante para permitir que os usuários tenham
uma visão unificada de dados heterogêneos e consultem facilmente diferentes informações
sobre eles.
No entanto, existem diferentes desafios na integração de dados de múltiplas fontes,
principalmente, porque a maioria dos dados que são originários da Web podem ser
heterogêneos, semiestruturados e não-estruturados, e em uma porção menor de dados
estruturados que são coletados em plataformas específicas como: formulários, sites e outras
metodologias. Outro desafio, apresentado por Bouzeghoub et al. (2002) e por Laender et al.
(2009), é manter o esquema de dados consistente após a integração, pois a cada alteração na
fonte de dados é necessário verificar se as mudanças precisam ser propagadas pelo esquema, se
novas consultas aos dados precisam ser elaboradas ou se o esquema precisa ser reescrito.
O ETL – Extração, Transformação/Limpeza e Carregamento (do inglês Extract, Transform e
Load), é uma abordagem bastante comum e utilizada na integração de dados (AZEROUAL et al.,
2018, BANSAL, 2014), como apresentado na Figura 2.
Figura 2 – ETL – As etapas para integração de dados de
múltiplas fontes utilizando
Fonte: Adaptada de Freepik
No ETL, existem três etapas importantes:
E – Extract (extração): consiste na comunicação com outros sistemas ou banco de
dados para obtenção de dados e informações relevantes de múltiplas fontes. Este
primeiro estágio tem o objetivo de tornar homogênea as diferenças existentes dos
dados e informações coletadas de fontes distintas. Este processo inicial permite que
os dados possam ser transformados nas próximas etapas;
T – Transform (transformação e limpeza): padronização e limpeza dos dados
quando necessário, pois dados de origem de sistemas diferentes possuem padrões
distintos. Aqui, nesta etapa, os dados devem atender a alguns critérios como a
padronização, limpeza e qualidade, identificando inconsistências e imprecisões
com o objetivo de consolidar a informação obtida, fazendo o mapeamento dos dados
através de filtros que são utilizados para tratá-los, sendo aplicado de acordo com as
regras de negócio.
Concluídos os processos necessários para a transformação dos
dados, estes devem ser homologados por especialistas em Data
Science (DS) e/ou Business Intelligence (BI), para tornar
disponíveis os dados para a geração de relatórios e gráficos que
ajudam nas tomadas de decisão;
L – Load (carregamento): inserção de dados no sistema da organização, como:
SGBD-R Sistema de Gerenciamento de Banco de Dados Relacional. Os dados
estruturados são enviados para o ambiente de armazenamento escolhido. Neste
ambiente, a informação deve ser mantida organizada, mapeada e acessível, podendo
ser disponibilizado os dados em diferentes aplicações ou até mesmo em nuvem.
O carregamento dos dados pode ser realizado diariamente, de
preferência fora do horário de pico de processamento da
instituição, com exceção quando houver a necessidade de
entrada de dados em tempo real.
Importante!
É importante observar o volume de dados e o tempo a ser extraído e
transformado para evitar o comprometimento da performance dos
sistemas.
ETL são ferramentas de software e a integração de dados é uma arquitetura, ou seja, a área de
integração de dados é bastante ampla e abrangente e, para Doan et al. (2018), a tarefa de
integração de dados também inclui modelagem de dados, processamento de dados
estruturados, semiestruturados e não-estruturados, integração em tempo real, governança de
dados, dentre outras.
O material obtido com o carregamento fica disponível para o processo de mineração de dados
através de software e algoritmos de IA, para analisarmos e encontrarmos padrões sofisticados,
impossíveis de serem identificados por seres humanos.
API
Com o surgimento dos conceitos da Web 2.0, em 2007, a forma com que os dados publicados
na Internet são produzidos mudou. A Web 2.0 trouxe uma nova visão sobre como melhor utilizar
os recursos já disponíveis na internet, disponibilizando a ideia de aplicações Web, semelhante às
aplicações de desktop, com funções de criação, modificação, persistência e visualização dos
dados, ou seja, o padrão CRUD (Create, Retrieve, Update e Delete). Todo o acesso da aplicação é via
Browser (navegador Web), sem a necessidade de fazer qualquer instalação de aplicativo.
O ambiente Web e Desktop são distintos, com conceitos de desenvolvimento diferentes de
arquitetura de aplicação. Atualmente, é utilizado a arquitetura em camadas para a Web, conceito
proposto por Fielding (2000) . Esta arquitetura divide as aplicações em componentes que estão
distribuídos em três tipos principais de camadas: Aplicação, Serviços e Persistência.
A API é uma abreviação para Application Programming Interface. Em português, a sigla significa
Interface de Programação de Aplicação, sendo um conjunto de definições e protocolos para criar
e integrar softwares de aplicações, permitindo a integração entre dois sistemas, sendo um dos
sistemas que fornece informações e serviços que podem ser consumidos pelo outro sistema,
sem a necessidade de o sistema que consome a PI conhecer detalhes profundos de
implementação de software, com disponibilidade para usada como produtos ou consumidor.
As APIs são componentes que integram a camada de Serviços, que é a camada responsável por
organizar a lógica das operações de CRUD. E elas expandiram sua utilização com o conceito de
arquitetura orientada a serviços (em inglês: Service-Oriented Architecture - SOA).
2/3
ʪ Material Complementar
Indicações para saber mais sobre os assuntos abordados nesta Unidade:
Livros
Pattern Recognition and Machine Learning
BISHOP, C. M. Pattern recognition and machine learning. S. l.: Ed. Springer, 2006.
Inteligência Artificial: uma Abordagem de Aprendizado de
Máquina
FACELI, K. et al. Inteligência artificial: uma abordagem de aprendizado de máquina. Rio de
Janeiro: LTC, 2011. (e-book)
Machine Learning
MITCHELL, T. Machine Learning. S. l.: McGraw-Hill Science/Engineering/Math, 1997.
Leitura
K-Means++: The Advantages of Careful Seeding
Clique no botão para conferir o conteúdo.
ACESSE
3/3
ʪ Referências
AZEROUAL, O.; SAAKE, G.; SCHALLEHN, E. Analyzing data quality issues in research information
systems via data profiling. International Journal of Information Management, S. l., v. 41, n. 8, p. 50-
56, 2018. DOI: 10.1016/j.ijinfomgt.2018.02.007.
BARR, A.; FEIGENBAUM, E. A. The handbook of artificial inteligence. Los Altos, CA: Willian
Kaufmann Inc., v. I-II, 1981.
BOUZEGHOUB, M. et al. Heterogeneous data source integration and evolution. In: CONFERENCE ON
DATABASE AND EXPERT SYSTEMS APPLICATIONS (DEXA), Proceedings, 13., France, p. 751-757,
2002. Disponível em:
<https://www.researchgate.net/publication/221464641_Heterogeneous_Data_Source_Integr
ation_and_Evolution>. Acesso em: 23/03/2022.
________. Heterogeneous data source integration and evolution. In: CONFERENCE ON
DATABASE AND EXPERT SYSTEMS APPLICATIONS (DEXA), Proceedings, 13., France, p. 751-757,
2002. Disponível em:
<https://www.researchgate.net/publication/221464641_Heterogeneous_Data_Source_Integr
ation_and_Evolution>. Acesso em: 23/03/2022.
CASTANHA, R. C. G. A ciência de dados e a cientista de dados. AtoZ: novas práticas em
informação e conhecimento, Curitiba, v. 10, n. 2, p. 1-4, 2021. Disponível em:
<https://revistas.ufpr.br/atoz/article/view/79882/43418>. Acesso em: 11/04/2022.
DOAN, A. et al. Toward a system building agenda for data integration (and data science). IEEE Data
Eng. Bull., S. l., v. 41, n. 2, p. 35-46, 2018. Disponível em:
<https://pages.cs.wisc.edu/~anhai/papers1/agenda-ieee-deb18.pdf>. Acesso em: 23/03/2022.
FIELDING, R. T. et al. Hypertext transfer protocol. IETF, 1997. Disponível em:
<http://www.ietf.org/rfc/rfc2068.txt>. Acesso em: 04/04/2022.
GOLDSCHMIDT, R. R. Uma introdução à inteligência computacional: fundamentos, ferramentas
e aplicações. Rio de Janeiro: IST-Rio, 2010. (Série Livros Didáticos Digitais).
LAENDER, A. H. F. et al. An x-ray on web-available XML schemas. ACM SIGMOD Record, S. l., v. 38,
n. 1, p. 37-42, 2009. Disponível em: <https://dl.acm.org/doi/abs/10.1145/1558334.1558338>.
Acesso em: 23/03/2022.
LIDDY, E. D. Natural language processing. Surface, Syracuse, 2001. Disponível em:
<https://surface.syr.edu/cgi/viewcontent.cgi?article=1043&context=istpub>. Acesso em:
07/04/2022.
NEEDHAM, M. Data creation and replication will grow at a faster rate than installed storage
capacity, according to the IDC global DataSphere and StorageSphere forecasts. IDC, 2021. Disponível
em: <https://www.idc.com/getdoc.jsp?containerId=prUS47560321>. Acesso em: 08/04/2022.
NILSSON, N. J.; GENESERETH, M. Logical foundations of artificial intelligence. S. l.: Elsevier Inc.,
1987.
RUSSELL, S.; NORVIG, P. Artificial intelligence: a modern approach. New Jersey: Prentice-Hall,
1995.
________. Artificial intelligence: a modern approach. New Jersey: Prentice-Hall, 2013.
________. Artificial intelligence: a modern approach. 3. ed. S. l.: Person Education, 2010.
________. Inteligência artificial. 2. ed. Rio de Janeiro: Campos, 2004.
TEIXEIRA, J. Mentes e máquinas: uma introdução à ciência cognitiva. São Paulo: Artes Médicas,
1998.
WEBER, M. L. Machine learning includes deep learning and neural nets. Science News for Students,
2021. Disponível em: <https://www.sciencenewsforstudents.org/article/machine-learning-
explainer-deep-learning-neural-nets-ai>. Acesso em: 10/04/2022.
WILKS, Y. Artificial intelligence: modern magic or dangerous future?. London: Icon Books, 2019.