Introducción a Redes Neuronales con TensorFlow
Neural Networks with TensorFlow
Blanco Santiago
[email protected]
Universidad del Centro Educativo Latinoamericano. Rosario, Argentina
RESUMEN/ ABSTRACT
Este informe documenta la implementación de una red neuronal con TensorFlow. El objetivo
fue entrenar el modelo para poder predecir valores de la función . Los
resultados mostraron una aproximación exitosa de la función sigmoide, mejorando con la
experimentación de parámetros.
Palabras clave: TensorFlow; Redes Neuronales; modelo
INTRODUCCIÓN
En este informe se aborda la implementación de una red neuronal con TensorFlow para
aproximar una función. El objetivo es entrenar el modelo para predecir valores de esta
función, explorando el proceso de entrenamiento y ajuste de parámetros. El propósito es
entender cómo TensorFlow, permite construir y optimizar redes neuronales para tareas
específicas.
MÉTODO
1. Paso 1 – Implementación Inicial
Para el paso 1 se utilizó un código de TensorFlow donde se cargaron los X e Y de la función
seleccionada para entrenar a la red neuronal.
• Se graficó la función sigmoide y la aproximación del algoritmo.
1
Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: SGD
✓ Loss: Mean Squared Error
✓ Epochs: 500
X Funcion Algoritmo
-25 0.00000 -0.20018
-10 0.00005 0.21992
-5 0.00669 0.35996
-2 0.11920 0.44398
-1 0.26894 0.47199
-0.75 0.32082 0.47899
-0.5 0.37754 0.48599
-0.25 0.43782 0.49299
0 0.50000 0.49999
0.25 0.56218 0.50699
0.5 0.62246 0.51401
0.75 0.67918 0.52101
1 0.73100 0.52801
2 0.88080 0.55601
5 0.99330 0.64003
10 0.99990 0.78007
25 1.00000 1.20017
2
2. Paso 2 – Optimización de parámetros
Con la ayuda de un dashboard que permite el fácil cambio de parámetros y la
visualización sencilla del efecto que producía cada cambio. Se probaron distintos
parámetros tanto para Activation, Optimizer y Loss y se observaron los cambios que
producían.
Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: SGD
✓ Loss: Mean Squared Error
✓ Epochs: 500
Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: Adam
✓ Loss: Mean Squared Error
✓ Epochs: 500
3
Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: Adamax
✓ Loss: Mean Squared Error
✓ Epochs: 500
RESULTADOS Y DISCUSIÓN
Los resultados obtenidos resaltan la importancia de seleccionar adecuadamente los
parámetros de la red neuronal para obtener predicciones precisas. El uso del optimizador
4
Adamax mostró ser especialmente efectivo, proporcionando una aproximación más
cercana a la función sigmoide que otros optimizadores probados, para el caso del activador
el mas adecuado resulto ser el Sigmoid y para el Loss Mean Squared Error fue el que mejor
se funciona. En el caso de las Épocas se observó como mayor cantidad dan un mejor
resultado.
CONCLUSIONES
En conclusión, este estudio ha demostrado la capacidad de TensorFlow para implementar
redes neuronales. La importancia de seleccionar cuidadosamente los parámetros, se hace
evidente en la mejora progresiva de la aproximación. Se observa que al no tener los
parámetros correctos la aproximación no es tan precisa, lo cual arroja resultados erráticos
para algunos valores. Este estudio subraya la relevancia del conocimiento profundo de los
parámetros en la obtención de predicciones precisas y la capacidad de TensorFlow para
facilitar este proceso.
BIBLIOGRAFÍA
https://barcelonageeks.com/por-que-tensorflow-es-tan-popular-funciones-de-tensorflow/
https://es.wikipedia.org/wiki/TensorFlow
https://www.tensorflow.org/tutorials/keras/regression?hl=es-419
https://www.incentro.com/es-ES/blog/que-es-tensorflow