0% encontró este documento útil (0 votos)
16 vistas5 páginas

TensorFlow Investigación

Este documento describe la implementación de una red neuronal con TensorFlow para predecir valores de la función sigmoide. Se exploraron diferentes parámetros como activación, optimizador y pérdida, observando que Adamax fue el optimizador más efectivo. El estudio demuestra la capacidad de TensorFlow para construir redes neuronales y seleccionar parámetros adecuados.

Cargado por

Santiago Blanco
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
16 vistas5 páginas

TensorFlow Investigación

Este documento describe la implementación de una red neuronal con TensorFlow para predecir valores de la función sigmoide. Se exploraron diferentes parámetros como activación, optimizador y pérdida, observando que Adamax fue el optimizador más efectivo. El estudio demuestra la capacidad de TensorFlow para construir redes neuronales y seleccionar parámetros adecuados.

Cargado por

Santiago Blanco
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 5

Introducción a Redes Neuronales con TensorFlow

Neural Networks with TensorFlow

Blanco Santiago
[email protected]

Universidad del Centro Educativo Latinoamericano. Rosario, Argentina

RESUMEN/ ABSTRACT
Este informe documenta la implementación de una red neuronal con TensorFlow. El objetivo

fue entrenar el modelo para poder predecir valores de la función . Los

resultados mostraron una aproximación exitosa de la función sigmoide, mejorando con la


experimentación de parámetros.

Palabras clave: TensorFlow; Redes Neuronales; modelo

INTRODUCCIÓN
En este informe se aborda la implementación de una red neuronal con TensorFlow para
aproximar una función. El objetivo es entrenar el modelo para predecir valores de esta
función, explorando el proceso de entrenamiento y ajuste de parámetros. El propósito es
entender cómo TensorFlow, permite construir y optimizar redes neuronales para tareas
específicas.

MÉTODO
1. Paso 1 – Implementación Inicial
Para el paso 1 se utilizó un código de TensorFlow donde se cargaron los X e Y de la función
seleccionada para entrenar a la red neuronal.
• Se graficó la función sigmoide y la aproximación del algoritmo.

1
Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: SGD
✓ Loss: Mean Squared Error
✓ Epochs: 500

X Funcion Algoritmo

-25 0.00000 -0.20018

-10 0.00005 0.21992

-5 0.00669 0.35996

-2 0.11920 0.44398

-1 0.26894 0.47199

-0.75 0.32082 0.47899

-0.5 0.37754 0.48599

-0.25 0.43782 0.49299

0 0.50000 0.49999

0.25 0.56218 0.50699

0.5 0.62246 0.51401

0.75 0.67918 0.52101

1 0.73100 0.52801

2 0.88080 0.55601

5 0.99330 0.64003

10 0.99990 0.78007

25 1.00000 1.20017

2
2. Paso 2 – Optimización de parámetros
Con la ayuda de un dashboard que permite el fácil cambio de parámetros y la
visualización sencilla del efecto que producía cada cambio. Se probaron distintos
parámetros tanto para Activation, Optimizer y Loss y se observaron los cambios que
producían.

Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: SGD
✓ Loss: Mean Squared Error
✓ Epochs: 500

Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: Adam
✓ Loss: Mean Squared Error
✓ Epochs: 500

3
Parámetros:
✓ Activation: Sigmoid
✓ Optimizer: Adamax
✓ Loss: Mean Squared Error
✓ Epochs: 500

RESULTADOS Y DISCUSIÓN

Los resultados obtenidos resaltan la importancia de seleccionar adecuadamente los


parámetros de la red neuronal para obtener predicciones precisas. El uso del optimizador

4
Adamax mostró ser especialmente efectivo, proporcionando una aproximación más
cercana a la función sigmoide que otros optimizadores probados, para el caso del activador
el mas adecuado resulto ser el Sigmoid y para el Loss Mean Squared Error fue el que mejor
se funciona. En el caso de las Épocas se observó como mayor cantidad dan un mejor
resultado.

CONCLUSIONES
En conclusión, este estudio ha demostrado la capacidad de TensorFlow para implementar
redes neuronales. La importancia de seleccionar cuidadosamente los parámetros, se hace
evidente en la mejora progresiva de la aproximación. Se observa que al no tener los
parámetros correctos la aproximación no es tan precisa, lo cual arroja resultados erráticos
para algunos valores. Este estudio subraya la relevancia del conocimiento profundo de los
parámetros en la obtención de predicciones precisas y la capacidad de TensorFlow para
facilitar este proceso.

BIBLIOGRAFÍA
https://barcelonageeks.com/por-que-tensorflow-es-tan-popular-funciones-de-tensorflow/
https://es.wikipedia.org/wiki/TensorFlow
https://www.tensorflow.org/tutorials/keras/regression?hl=es-419
https://www.incentro.com/es-ES/blog/que-es-tensorflow

También podría gustarte