0% encontró este documento útil (0 votos)
159 vistas14 páginas

Inteligencia Artificial

El documento presenta un resumen sobre inteligencia artificial. Explica que la IA es la capacidad de las máquinas para usar algoritmos, aprender de datos y tomar decisiones como lo haría un humano. Luego describe los orígenes de la IA en la conferencia de Dartmouth de 1956 y los primeros programas de IA como "Logic Theory Machine". Finalmente, discute los paradigmas de IA simbólica e IA conexionista basada en redes neuronales y cómo el aprendizaje profundo ha revolucionado el campo.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
159 vistas14 páginas

Inteligencia Artificial

El documento presenta un resumen sobre inteligencia artificial. Explica que la IA es la capacidad de las máquinas para usar algoritmos, aprender de datos y tomar decisiones como lo haría un humano. Luego describe los orígenes de la IA en la conferencia de Dartmouth de 1956 y los primeros programas de IA como "Logic Theory Machine". Finalmente, discute los paradigmas de IA simbólica e IA conexionista basada en redes neuronales y cómo el aprendizaje profundo ha revolucionado el campo.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 14

UNIVERSIDAD NUEVA SAN SALVADOR

FACULTAD DE CIENCIAS DE LA SALUD (Doctorado en medicina)

TAREA: INTELIGENCIA ARTIFICIAL

ESTUDIANTE: JOSUÉ DAVID SALAZAR HENRÍQUEZ U20210308

CATEDRÁTICO: Ing. Edwin Ernesto Colorado López

ASIGNATURA: Computación para la investigación// Herramientas informáticas

FECHA: 30/08/21
INTELIGENCIA ARTIFICIAL

CONCEPTO:

Habilidad de los ordenadores para hacer actividades que normalmente requieren


inteligencia humana. Pero, para brindar una definición más detallada, podríamos
decir que la IA es la capacidad de las máquinas para usar algoritmos, aprender de
los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser
humano.

HISTORIA

EL PRIMER PROGRAMA DE INTELIGENCIA ARTIFICIAL

En 1842, la matemática y pionera de la informática, Ada Lovelace, programó el


primer algoritmo destinado a ser procesado por una máquina. Adelantada a su
época, Ada especuló que la máquina “podría actuar sobre otras cosas además de
los números... el motor (la máquina) podría componer piezas musicales elaboradas
y científicas de cualquier grado de complejidad o extensión”. Décadas más tarde, la
visión de Ada es una realidad gracias a la Inteligencia Artificial (IA).

Sin embargo, un hito considerado como el momento fundacional de la “inteligencia


artificial”, tanto del término como del campo de estudio, es una conferencia en
Darmouth el año 1956 organizada por John McCarthy, Marvin Minsky, Claude
Shannon y Nathaniel Rochester.

En ella, los organizadores invitaron a unos diez investigadores para formalizar el


concepto de inteligencia artificial como un nuevo campo de estudio científico.
Pioneros de la IA, cuatro de los asistentes fueron posteriormente galardonados con
el premio Turing (a menudo denominado Premio Nobel de informática) por sus
contribuciones a la IA. Una idea común entre los asistentes, y profundamente
arraigada hasta el día de hoy en el estudio de la IA, es que el pensamiento es una
forma de computación no exclusiva de los seres humanos o seres biológicos. Más
aún, existe la hipótesis de que la inteligencia humana es posible de replicar o simular
en máquinas digitales. Ese mismo año dos de los participantes de la conferencia,
Alan Newell y Herbert Simon, publican lo que es considerado el primer programa
computacional de inteligencia artificial.

El programa “Logic Theory Machine” es capaz de descubrir demostraciones de


teoremas en lógica simbólica. La idea principal es que a través de la combinación
de simples operaciones primitivas, el pro grama puede ir construyendo
expresiones, cada vez más complejas.

El desafío computacional radica en encontrar la combinación de operaciones que


de muestran un teorema dado, entre una cantidad exponencial de posibles
combinaciones. La contribución de los autores fue idear un enfoque heurístico, o de
reglas generales, que permiten recortar el árbol de búsqueda de manera
“inteligente” y encontrar una solución en la mayoría de los casos, pero no siempre.
La introducción de los procesos heurísticos ha influenciado enormemente la ciencia
de la computación y según los mismos autores, son la magia central en toda
resolución de problemas humanos.

No es coincidencia que esta tesis provenga de Herbert Simon, quien recibió el Nobel
en economía por la provocadora idea de modelar el comportamiento humano, no
como un agente “homo economicus” totalmente racional, sino que con “racionalidad
limitada” cuya toma de decisiones es principalmente heurística.

DOS PARADIGMAS DE INVESTIGACION DE LA INTELIGENCIA ARTICIAL

Inteligencia Artificial simbólica. La búsqueda heurística fue un pilar clave para los
avances de la IA en sus comienzos. Todo tipo de tareas de resolución de problemas,
como probar teoremas y jugar ajedrez, implican tomar decisiones que se pueden
modelar como un árbol de decisiones que debe ser recorrido para encontrar una
estrategia que resuelva el problema. Los algoritmos de búsqueda heurística son
parte de una colección de métodos que se basan en representar el conocimiento
implícito o procedimental que poseen los humanos de forma explícita, utilizando
símbolos y reglas (legibles por humanos) en programas informáticos. La “IA
simbólica” demostró ser muy exitosa en las primeras décadas de la IA logrando
codificaren “sistemas expertos” el razonamiento humano en dominios de
conocimiento específico.

Un ejemplo son los sistemas de apoyo de diagnóstico médico a través de motores


de inferencia y bases de conocimientos que resumen el conocimiento médico
basado en evidencia. Uno de los logros más populares de la IA simbólica culmina
con la derrota del campeón mundial de ajedrez en 1997, Garry Kasparov, por el
computador Deep Blue de IBM.

IA conexionista Paralelamente con la emergencia de la IA simbólica, que modela la


mente humana como si fuese una computadora procesadora de símbolos, existe
otra escuela de pensamiento que se basa en modelar la biología del cerebro que
está compuesto por redes neuronales biológicas. Frank Rosenblat (psicólogo) en
1958 propuso el perceptrón, una generalización de la neurona McCulloch-Pitts que
podía “aprender” a través de coeficientes de ponderación para cada entrada de la
neurona.

Hasta el día de hoy, el perceptrón es la unidad fundamental para muchas de las


redes neuronales artificiales e impulsa el paradigma conocido como IA conexionista.
A pesar de su promesa, la investigación en re des neuronales se detuvo por falta
de financiamiento y una sobre expectación no cumplida. Hechos que parcialmente
son atribuidos a una malinterpretada exposición de las limitaciones y fortalezas del
perceptrón en un libro por pioneros de la IA simbólica, Marvin Minsky y Seymour
Papert en 1969.

No fue hasta comienzos de 1980, que Geoffrey Hinton (Premio Turing en 2018) y
colegas redescubren y popularizan el método llamado retro propagación; el
algoritmo central detrás de la búsqueda heurística (estilo IA simbólica) que logra
encontrar los parámetros del modelo que minimizan su error, así permitiendo que
una red neuronal de múltiples capas aprenda a partir de datos. Este avance resuelve
las limitaciones de los perceptrones de Rosenblat y crea un resurgimiento en la
investigación del aprendizaje profundo.
LA REVOLUCIÓN DEL APRENDIZAJE PROFUNDO

En la década del 2010, dos cosas harían posible la revolución de aplicaciones de


redes neuronales y algoritmos de aprendizaje profundo. Primero, los avances de
hardware especializado han acelerado drásticamente el entrenamiento y el
rendimiento de las redes neuronales y reducido su consumo de energía. Segundo,
el aumento de datos abiertos disponibles online y servicios de bajo costo para
etiquetar datos vía crowdsourcing impulsan el desarrollo de la IA.

Como consecuencia de estos avances, se desarrollaron aplicaciones basadas en


las redes neuronales donde la IA simbólica no tuvo éxito. Por ejemplo en
aplicaciones de visión, como reconocimiento facial y detección de cáncer, y en
aplicaciones de lenguaje, como la traducción de idiomas y asistentes virtuales. En
2015, Microsoft Research utiliza una arquitectura de red neuronal para categorizar
imágenes con una mayor precisión que el humano promedio. Al siguiente año, el
sistema AlphaGo de DeepMind se corona maestro de Go tras vencer al campeón
mundial, Lee Sedol. Este suceso es impactante ya que en el Go hay en promedio
alrededor de 300 movimientos posibles que se pueden hacer en cada turno,
mientras que en el ajedrez es cercano a 30 movimientos. En otras palabras, el árbol
de búsqueda del Go tiene un factor de ramificación de un orden de magnitud mayor
al ajedrez, razón principal por la cual la IA simbólica, por sí sola, falló en desarrollar
un programa para jugar Go.

LIMITACIONES DE LA INTELIGENCIA ARTIFICIAL

Un aspecto clave y poderoso de las redes neuronales es que no requieren que se


especifiquen las reglas del dominio a modelar; las reglas se aprenden a partir de los
datos de entrenamiento. La falta de conocimiento de alto nivel embebido en el
sistema por expertos humanos, como es el caso de la IA simbólica, se contrarresta
con la capacidad de inferir estadísticamente un modelo del dominio a partir de
suficientes datos. Sin embargo, una desventaja importante de las redes neuronales
es que requieren grandes recursos computacionales y cantidades enormes de
datos. Por ejemplo, se estima que replicar los experimentos de AlphaGo costaría
alrededor de 35 millones de dólares sólo en poder computacional.
Por otro lado, los datos deben ser cuidadosamente “curados” para ser
representativos y así poder generalizar correctamente y no producir resultados
sesgados, como ha sido el caso en textos sexistas y racistas generados a partir de
modelos de lenguaje. Por otro lado, mientras que programas de software basados
en reglas explícitas son fáciles de rastrear y comprender cómo llegó a tomar ciertas
decisiones, no se puede decir lo mismo de los algoritmos de aprendizaje profundo
que debido a su alta complejidad son difíciles de interpretar y comunicar por
humanos. Estas limitaciones son uno de los grandes desafíos en la IA y hay mucha
investigación activa en estas direcciones.

DEMOCRATIZANDO LA INTELIGENCIA ARTIFICIAL

Desde que el aprendizaje profundo recuperó prominencia alrededor del 2010, los
softwares gratuitos y de código abierto especializados para el aprendizaje profundo
han sido enormemente responsables de impulsar el campo hacia adelante. Desde
las primeras librerías creadas por equipos académicos, Caffe y Theano, hasta las
actuales dominantes, PyTorch y TensorFlow, respaldadas por Facebook y Google,
respectivamente, el acceso a este software de código abierto ha facilitado el cambio
hacia la innovación tecnológica impulsada por el aprendizaje automático. Tanto en
la investigación de vanguardia como en la creación de aplicaciones por la industria,
la democratización de la IA reduce las barreras de entrada para que las personas y
organizaciones puedan ingresar al apasionante mundo de la IA con poca o nada de
inversión financiera. Pueden aprovechar los datos y algoritmos disponibles
públicamente para comenzar a experimentar la construcción de modelos de IA y a
la vez contribuir a expandir las bases de datos públicas y poner a disposición nuevas
soluciones. Como ejemplo del poder de democratizar datos, en el 2009 el proyecto
Image Net, liderado por la investigadora Fei-Fei Li, puso a disposición del público
una gran base de datos visual que ayudó a investigadores a crear modelos más
rápidos y precisos de reconocimiento visual de objetos. Esta colección de imágenes
se convirtió rápidamente en una competencia anual (ahora organizada en Kaggle)
para ver qué algoritmos podían identificar objetos en las imágenes, con la tasa de
error más baja.
El 2012, el primer equipo en usar redes neuronales en la competencia venció el
estado del arte con una precisión récord. La arquitectura propuesta por integrantes
del laboratorio de Geoffrey Hinton en la Universidad de Toronto, Red Neuronal
Convolucional, fue inspirada por las características estructurales y fisiológicas de la
visión animal. Hoy en día, estas redes neuronales están en todas partes: se usan
para etiquetar las fotos en plataformas sociales; los vehículos autónomos las utilizan
para detectar objetos; y se usan para digitalizar textos. Desde entonces, se han
introducido una multitud de nuevos conjuntos de datos estimulando investigación en
subcampos de la IA como el procesamiento de lenguaje natural (NLP) y
reconocimiento de voz y audio. La arquitectura precursora en NLP, es la Red
Neuronal Recurrente, que usa datos secuenciales y se distingue por su “memoria”,
ya que al iterar sobre la entrada, mantiene un estado interno que codifica
información sobre los elementos anteriores dentro de la secuencia e influenciando
el output actual.

El procesamiento de lenguaje natural juega un papel vital en muchos sistemas,


desde el análisis de currículos para la contratación, hasta asistentes virtuales y
detección de spam. Sin embargo, el desarrollo y la implementación de la tecnología
de NLP no son tan equitativo como parece. Aunque se hablan más de 7000 idiomas
en todo el mundo, la gran mayoría de los avances tecnológicos son aplicados al
inglés. Una iniciativa para contrarrestar esta inequidad es liderada por Jorge Pérez,
académico del Departamento de Ciencias de la Computación (DCC) de la
Universidad de Chile, que junto a estudiantes han puesto a libre disposición de la
comunidad un modelo de lenguaje en español. IA en Chile Describiremos a grandes
rasgos el desarrollo actual de la IA en Chile en tres áreas: empresarial, investigación
académica, y enseñanza y propuestas.

A nivel empresarial las técnicas de IA ya están comenzando a ser un commodity,


esto es, están a disposición en el mercado regular y se están usando de manera
generalizada (particularmente en lo que respecta a aprendizaje por medio de datos).
Otra pregunta es si hay desarrollos “novedosos”. A manera de ejemplo
nombraremos cuatro. NotCo, cuyo logro es “combinar la inteligencia artificial con el
conocimiento del mundo vegetal para crear productos”. Usan técnicas de análisis
de da tos y visualización innovadoras, pero hay poca información sobre su nivel
innovador de IA/ML. El otro ejemplo es Fintual. Aquí se usan bastantes cosas que
se pueden considerar IA, por ejemplo, “bots de inversión” que permiten seguir
ciertos índices para invertir de forma pasiva y a bajo costo.

El tercer ejemplo es CornerShop que usa tecnologías de datos y analítica para su


diseño de operaciones. Finalmente, un ejemplo de una empresa más pequeña es
Zippedi, orientada a robótica de almacenes para optimizar digitalmente las
estanterías. Hay también muchas otras empresas tipo startup que están haciendo
cosas tipo chatbots, aplicaciones de procesamiento de imágenes, bioinformática,
etc., la mayoría aplicando investigación ya consolidada (no desarrollando).
Respecto de la investigación dedicada a la IA propiamente tal (esto es, publicando
regularmente en revistas o conferencias de IA) son pocos los grupos a lo largo del
país.

Destacamos IALab de la Pontificia Universidad Católica de Chile, que tiene varios


años y buena infraestructura (particularmente su clúster de GPUs para IA). Su fuerte
es visión computacional y robótica. Otro grupo es el de Inteligencia Computacional
del Departamento de Ingeniería Eléctrica (UChile) que está centrado en robótica y
visión, y procesamiento de señales y aprendizaje en este campo. En el DCC
(UChile) hay un grupo (ReLeLa) centrado en IA y NLP.

La Universidad de Concepción recientemente creó un grupo de IA enfocado a


Sistemas Multiagente y Robótica. Por otra parte, hay muchos grupos en diversas
universidades dedicados más bien a aplicaciones de AI en diferentes áreas, como
empresarial, comercial, científica, social, etc. y luego publican en esas disciplinas.
Por ejemplo, el Instituto Data Science de la Universidad del Desarrollo (UDD) aplica
técnicas de IA en proyectos asociados a la minería y agricultura. Finalmente, hay
muchas investigadores que trabajan más bien solos o con colegas de otras
instituciones en diversas universidades a lo largo del país. Respecto de la
enseñanza, han proliferado los cursos de IA, así como diplomados y magíster en el
área dictados por diferentes universidades y organizaciones. Esto muestra que la
IA se ha convertido en un boom en Chile, con los claros y oscuros propios de un
boom. En este marco diferentes organizaciones e instituciones discuten sobre los
usos de IA en diferentes áreas, entre ellos, la Comisión Desafíos del Futuro del
Senado, las universidades, las Fuerzas Armadas, el Ministerio de Ciencia y
Tecnología, etc. Se han elaborado diversos documentos. Algunos ejemplos son:
“Inteligencia Artificial para Chile. La urgencia de desarrollar una estrategia”, del
Senado de la República; “Ejército Virtual” de la Academia Politécnica Militar, y
“Política Nacional de Inteligencia Artificial” del Ministerio de Ciencia.

Un aspecto clave de las redes neuronales es que no requieren que se


especifiquen las reglas del dominio a modelar; las reglas se aprenden a partir
de los datos de entrenamiento.

GENERALIDADES
USOS DE LA INTELIGENCIA ARTIFICAL

La IA se puede aplicar en casi todas las situaciones. Éstas son sólo algunas de las
aplicaciones técnicas de la IA que están creciendo rápidamente en la actualidad:

- Reconocimiento de imágenes estáticas, clasificación y etiquetado: estas


herramientas son útiles para una amplia gama de industrias.
- • Mejoras del desempeño de la estrategia algorítmica comercial: ya ha sido
implementada de diversas maneras en el sector financiero.
- Procesamiento eficiente y escalable de datos de pacientes: esto ayudará a
que la atención médica sea más efectiva y eficiente.
- Mantenimiento predictivo: otra herramienta ampliamente aplicable en
diferentes sectores industriales.
- Detección y clasificación de objetos: puede verse en la industria de vehículos
autónomos, aunque también tiene potencial para muchos otros campos.
- Distribución de contenido en las redes sociales: se trata principalmente de
una herramienta de marketing utilizada en las redes sociales, pero también
puede usarse para crear conciencia entre las organizaciones sin ánimo de
lucro o para difundir información rápidamente como servicio público.
- Protección contra amenazas de seguridad cibernética: es una herramienta
importante para los bancos y los sistemas que envían y reciben pagos en
línea.
La IA también será capaz de ofrecernos sugerencias y predicciones
relacionadas con asuntos importantes de nuestra vida, lo que tendrá su
impacto en áreas como la salud, el bienestar, la educación, el trabajo y las
relaciones interpersonales. De la misma manera, cambiará la forma de hacer
negocios al proporcionar ventajas competitivas a las empresas que busquen
entender y aplicar estas herramientas de forma rápida y eficaz.

Uso de datos en los negocios y la sociedad Los elevados volúmenes de


datos o macrodatos (big data) también están ayudando a las grandes
empresas a mejorar sus operaciones internas y externas. Kai-Fu Lee,
capitalista de riesgo y director ejecutivo de Sinovation Ventures, describe las
razones por las que los datos son fundamentales para las grandes
compañías tecnológicas mediante un esquema con los cinco pasos que
éstas deben realizar para perfeccionar sus soluciones de inteligencia
artificial.
A pesar de que usa ejemplos de empresas tecnológicas estadounidenses,
estos pasos son también aplicables a otras compañías internacionales que
dependen de la IA como Alibaba, Baidu y Tencent. Los pasos son los
siguientes:
1. Obtención de más datos: la idea clave en este paso es que las empresas
tecnológicas puedan crear servicios tan útiles que la gente esté dispuesta
a permitir que sus datos sean utilizados por el servicio. Un ejemplo de ello
es el motor de búsqueda de Google, que abarca una gran cantidad de
datos. De igual manera, Facebook no sería una red social tan poderosa
si no tuviera acceso a la información sobre las tendencias sociales de sus
usuarios.

2. Mejores productos basados en la IA: en empresas como Google y


Facebook, la experiencia de usuario se personaliza para que sea
importante y relevante para éste, lo que es posible gracias a que la IA
mejora sus productos.

3. Mayor número de usuarios: cuando una persona tiene una experiencia


satisfactoria con un producto o servicio, tiende a recomendarlo a sus amigos.

4. Mayores ingresos: un número mayor de usuarios casi siempre equivale a


mayores ingresos.

5. Más expertos y científicos en IA: a medida que las empresas aumentan


sus ingresos, están más capacitadas para atraer a los mejores expertos y
científicos en IA.12 Con el tiempo, cuantos más científicos de datos y
expertos en aprendizaje automático trabajen para una compañía, más
importante podrá ser su investigación sobre inteligencia artificial, lo que
permite no sólo que la empresa sea más valiosa, sino también que esté mejor
preparada para el futuro.
CONCLUSIONES

Desde el origen de las computadoras digitales, constantemente se han hecho


investigaciones científicas y tecnológicas con la finalidad de facilitar algunas
actividades propias de los seres humanos. Se ha logrado automatizar muchos
procesos mecánicos, de cálculo, de almacenamiento de datos, de procesamiento,
etc. desarrollando, cada vez, herramientas de cómputo capaces de auxiliar en forma
directa cada una de estas actividades. En varias de ellas se tiene la necesidad de
examinar el medio ambiente donde se desarrollará tal actividad y realizar un análisis
de las situaciones y tomar una decisión siguiendo un razonamiento lógico. Los seres
humanos, a diferencia de otras especies, tienen la capacidad de razonar sobre una
serie de percepciones de hechos y proposiciones estableciendo relaciones entre si.
A esta capacidad se le llama inteligencia. Mediante el uso de los sentidos, puede
enterarse de hechos que suceden en el medio ambiente que lo rodea y es capaz de
establecer relaciones entre ellos para obtener conclusiones, desarrollar
conocimiento y actuar en base a ellos. De manera semejante, se han desarrollado
aplicaciones que emulan el comportamiento humano mediante sistemas
computacionales.

La IA es una rama de las ciencias computacionales encargada de estudiar modelos


de cómputo capaces de realizar actividades propias de los seres humanos en base
a dos de sus características primordiales: el razonamiento y la conducta.

El uso de la inteligencia artificial en elección aleatoria, es como la principal


herramienta para dirigir el proceso de búsqueda parece extraño al principio, ya que,
tradicionalmente se han usado técnicas de búsqueda basadas en cálculo y
enumerativas para resolver problemas de optimización, sin embargo, existen
numerosas aplicaciones que han demostrado que ofrece buen comportamiento para
localizar o aproximarse a óptimos globales durante la solución de problemas
(Goldberg, 1989).
BIBLIOGRAFIA

Luger and Stubblefield, "Artificial Intelligence and the Design of Expert


Systems". The Benjamin/Cummings Publishing Company, Inc. Estados
Unidos. 1989

Abeliuk, A., & Gutiérrez, C. (2021). Historia y evolución de la inteligencia


artificial. Revista Bits de Ciencia, (21), 14-21.

Rouhiainen, L. (2018). Inteligencia artificial. Madrid: Alienta Editorial.

También podría gustarte