0% encontró este documento útil (0 votos)
1K vistas341 páginas

Comp Des 2019

Cargado por

hacabrera
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
1K vistas341 páginas

Comp Des 2019

Cargado por

hacabrera
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Computación para el

Desarrollo
XII Congreso

Julio Alberto Portillo


Daniel Meziat Luna
Luis Bengochea Martínez
(Editores)
Obras Colectivas de Tecnología 29
Computación para el Desarrollo – XII Congreso

Actas del XII Congreso Iberoamericano de Computación para el


Desarrollo (COMPDES 2019)

Universidad de El Salvador
Facultad de Ingeniería y Arquitectura
San Salvador (El Salvador)
24 al 26 de julio de 2019

Editores:

Julio Alberto Portillo (Universidad de El Salvador)


Daniel Meziat Luna (Universidad de Alcalá - España)
Luis Bengochea Martínez (Universidad de Alcalá - España)
El libro “Computación para el Desarrollo – XII Congreso” en el que se recogen
las Actas del XII Congreso Iberoamericano de Computación para el Desarrollo
(COMPDES2019), editadas por Julio Portillo, Daniel Meziat y Luis Bengochea, se
publica bajo licencia Creative Commons 3.0 de reconocimiento – no comercial –
compartir bajo la misma licencia.
Se permite su copia, distribución y comunicación pública, siempre que se mantenga el
reconocimiento de la obra y no se haga uso comercial de ella. Si se transforma o genera
una obra derivada, sólo se puede distribuir con licencia idéntica a ésta.
Alguna de estas condiciones puede no aplicarse, si se obtiene el permiso de los titulares
de los derechos de autor.

Universidad de Alcalá
Servicio de Publicaciones
Plaza de San Diego, s/n
28801 Alcalá de Henares

ISBN: 978-84 -17729-48-6

Diseño de la portada: Luis Bengochea

Edición digital

Los contenidos de esta obra son responsabilidad exclusiva de sus autores y no reflejan necesa-
riamente la opinión oficial de la Universidad de El Salvador, de la Universidad de Alcalá ni de
ninguna de las instituciones que han colaborado en la organización del congreso.
Organización del Congreso

El congreso está organizado por:

Universidad de El Salvador
La Universidad de El Salvador posee cuatro sedes. El Campus Central posee la mayor población
estudiantil universitaria de todo el país. En este claustro funcionan nueve facultades. Las sedes
regionales funcionan como facultades multidiscplinarias y están estructuradas por departamentos.
La Ley Orgánica de la Universidad de El Salvador establece que las Facultades constituyen unidades
académicas que agrupan y coordinan áreas afines de desarrollo acadé[Link] la actualidad se imparten
169 carreras en las cuatro sedes la Universidad de El Salvador. [www. [Link]]

Universidad de Alcalá (España)


Institución fundada en 1499 que presta el servicio público de la educación superior a través de la
docencia y de la investigación, que dispone de un Campus Virtual en el que se imparten enseñanzas
virtuales oficiales (grados, másteres y doctorados) y propias (títulos propios de formación continua, de
experto y de máster). [[Link]]

Miembros Red COMPDES


Formado por las Universidades: Universidad Nacional Autónoma de Nicaragua – León (UNAN-León),
Universidad de El Salvador (UES), Universidad Nacional de Ingeniería (UNI), Universidad Nacional
Autónoma de Nicaragua – Managua (UNAN-Managua), Bluefields Indian and CaribeanUniversity
(BICU), Tecnológico de Costa Rica (TEC), Universidad de las Regiones Autónomas de la Costa Caribe
Nicaragüense (URACCAN), Universidad de San Carlos de Guatemala (USAC), Universidad Nacional
Autónoma de Honduras (UNAH) y la Universidad de Alcalá – España (UAH).
Comité Central COMPDES
Óscar López, Tecnológico de Costa Rica
Daniel Meziat, Universidad de Alcalá
Raúl Palma, Universidad Nacional de Honduras
Miguel Ángel Bárcenas, Universidad UNAN-León

Comité Local COMPDES2019


Francisco Antonio Alarcón Sandoval, Universidad de El Salvador
Julio Alberto Portillo, Universidad de El Salvador
Jose María Sánchez Cornejo, Universidad de El Salvador
Rodrigo Ernesto Vásquez Escalante, Universidad de El Salvador
Elmer Arturo Carballo Ruiz, Universidad de El Salvador

Comité Científico
Bernardo Alarcos Alcázar, Universidad de Alcalá (España)
Jose Arco, Universidad de Alcalá (España)
Roberto Barchino, Universidad de Alcalá (España)
Aida Barrios, Universidad Panamericana (Guatemala)
Luis Bengochea, Universidad de Alcalá (España)
Ma. Carmen Cabrera-Loayza, Universidad Técnica Particular de Loja (Ecuador)
Coral Calero, Universidad de Castilla-La Mancha (España)
Elmer Arturo Carballo Ruiz, Universidad de El Salvador
Pablo de La Fuente, Universidad de Valladolid
Mª José Domínguez, Universidad de Alcalá (España)
Patricia Haydée Estrada de López, Universidad de El Salvador
Francisco J. Estrada-Martínez, Universidad de Alcalá (España)
Nelson Augusto Forero Paez, Universidad Católica de Colombia
Margarita Garcia, Universidad de La Serena (Chile)
Francisco José García Peñalvo, University of Salamanca (España)
Cesar Garita, ITCR (Costa Rica)
José González Enríquez, University of Seville (España)
Daniel Guasch, Universitat Politècnica de Catalunya
José-Antonio Gutiérrez-De-Mesa, Universidad de Alcalá (España)
José Ramón Hilera, Universidad de Alcalá (España)
Erika Jaillier, Universidad Pontificia Bolivariana (Venezuela)
Diego R. Llanos, University of Valladolid (España)
Oscar Lopez, ITCR (Costa Rica)
Alicia López, Universidad Nacional de Mar del Plata
Agustin Martinez Hellin, Universidad de Alcalá (España)
Guillermo Mejia, UES-FIA-EISI (El Salvador)
Daniel Meziat Luna, Universidad de Alcalá (España)
Raul Jose Palma Mendoza, Universidad Autónoma de Honduras
Oscar Poblacion, Universidad de Alcalá (España)
Julio Alberto Portillo, Universidad de El Salvador
Félix Andrés Restrepo Bustamante, Universidad de Alcalá (España)
Audrey Romero, UTPL (Ecuador)
José Sánchez, Universidad de El Salvador
Sebastian Sanchez Prieto, Universidad de Alcalá (España)
Ambrosio Toval, Grupo de Investigación
Jesús Vegas, Universidad de Valladolid (España)
Juan Velasco, Universidad de Alcalá (España)

Representantes de la red COMPDES


Anayanci López. Universidad de Ingeniería (Nicaragua)
Christian López. CUNOC-USAC (Guatemala)
Daniel Meziat. Universidad de Alcalá (España)
Eduardo Gross. Universidad Nacional Autónoma de Honduras
Francisco Alarcón. Universidad de El Salvador
Gaudy Esquivel. ITCR. Costa Rica
Jacqueline Kerr. BICU (Nicaragua)
José María Sánchez. Universidad de El Salvador
Julio Portillo. Universidad de El Salvador
Luis Bengochea. Universidad de Alcalá (España)
Luis Chaves. Universidad de Ingeniería (Nicaragua)
Nelson Juárez. Universidad de Ingeniería (Nicaragua)
Oliver Sierra. CUNOC-USAC (Guatemala)
Oscar López. ITCR. Costa Rica
Miguel Ángel Bárcenas Lezama. UNAN – León
Arnoldo José Contreras Mercado. UNAN-León
Roy López. BICU (Nicaragua)
Víctor Hernández. CUNOC-USAC (Guatemala)
Prólogo

Tiene mucho mérito acudir un año más, a una nueva edición, esta es la duodécima, del Congreso
de Computación para el Desarrollo (COMPDES2019), que esta vez se celebra del 24 al 26 de
julio de 2019 en la ciudad de San Salvador (El Salvador), bajo la organización de la Universidad
de El Salvador (UES), en la Facultad de Ingeniería y Arquitectura, en su Sede Central, y con el
auspicio de la red de Computación para el Desarrollo (red COMPDES). Ésta es una red de
Cooperación Interuniversitaria que desarrolla sus actividades en el campo de la Computación.
Está constituida por universidades de Costa Rica (ITCR), El Salvador (UES), Guatemala (USAC),
Honduras (UNAH), Nicaragua (UNAN-León, URACCAN, BICU, UNI-Managua y UNAN-
Managua) y España (UAH).

Desde sus inicios en 2006, la red COMPDES se ha mantenido fiel en su objetivo principal de
mejorar el desarrollo de los países centroamericanos. Para ello, ha fomentado sinergias de
colaboración entre las instituciones, proponiendo el desarrollo de proyectos conjuntos y
promoviendo el intercambio de experiencias. Una de las acciones más visibles del quehacer de la
red ha sido la realización del congreso anual (COMPDES), que constituye una forma viable de
concretizar los fines y principios de las universidades participantes, presentando y compartiendo
las investigaciones y actividades más relevantes.

Desde 2008, año con año, la red COMPDES invita a la comunidad científica y tecnológica del
ámbito de la computación y sus aplicaciones a participar en el Congreso. Con ello ha logrado
consolidar un espacio académico y de investigación para el intercambio entre profesionales,
académicos y estudiantes de Iberoamérica, de inquietudes, criterios, publicaciones y avances
sobre sus investigaciones y el desarrollo de aplicaciones informáticas que impulsan el desarrollo
de los sectores industriales, agropecuarios, de servicios, y de recursos naturales.

El eje central de la XII edición del congreso (COMPDES2019) ha sido nuevamente el Internet de
las Cosas (Internet of Things). Este eje se tomado como orientación general de los trabajos con
las siguientes líneas temáticas:

 Aplicaciones informáticas: e-health, e-commerce, e-government, e-learning, e-crime, e-


environment, e-security, e-safety.
 Información y conocimiento: Data science, Big data, Bases de datos, Minería de datos,
Gestión del conocimiento, Inteligencia de negocios, Información geográfica, Web
semántica.
 Computación móvil: Dispositivos móviles, Sistemas ubicuos, Computación en la nube y
en malla.
 Inteligencia artificial: Sistemas inteligentes, Agentes inteligentes, Sistemas neuro-
difusos, Sistemas adaptativos, Robótica, Machine learning, Pattern recognition, Deep
learning.
 Interfaces avanzadas: Visión por computador, Computación gráfica, Realidad virtual,
Realidad aumentada e Interacción hombre-máquina.
 Emprendimientos en tecnologías: Iniciativas de negocios, incluyendo software,
hardware, producción audiovisual, multimedia y videojuegos.
Esta edición de las memorias del congreso contiene sólo los trabajos que superaron el proceso de
evaluación por pares realizado por el Comité Científico. Los trabajos cuentan con la autorización
expresa de sus autores para la publicación. En total fueron aceptadas XX ponencias, XX posters,
y la impartición de XX talleres. Para su exposición, en cada día del congreso se sigue una
estructura similar. Una conferencia magistral invitada, con carácter plenario, una serie ponencias,
presentadas en sesiones paralelas y los talleres especializados. Los posters se exponen de forma
permanente en el congreso.

La organización del COMPDES2019 no habría sido posible sin la colaboración abnegada de


muchas personas, desde autoridades hasta personal de apoyo. Es digno de destacar el enorme
esfuerzo y dedicación con que se ha trabajado, cuidando los distintos aspectos y atendiendo las
peticiones de los miembros de la red, y gestionando las dificultades imprevistas. Apoyo especial
han aportado el Vicerrector de la UES Dr. Manuel de Jesús Joya y el Decano de la Facultad de
Ingeniería de la Sede Central Ing. Francisco Antonio Alarcón Sandoval. También los miembros
del Comité Local Julio Alberto Portillo, José María Sánchez Cornejo, Rodrigo Ernesto Vásquez
Escalante, y Elmer Arturo Carballo Ruiz, que colaboraron arduamente en la parte logística de este
evento coordinando un equipo docente y logístico, así como Luis Bengochea Martínez y Daniel
Meziat Luna. También merece un especial agradecimiento el Rector de la UES Maestro Roger
Armando Arias, que ha apoyado de manera muy activa la planificación del congreso.

Justo es agradecer a una serie de actores imprescindibles en el congreso. A los autores de las
ponencias, posters y talleres presentados, por su interés en compartir su conocimiento y
experiencias. Con sus aportaciones y participación confieren la esencia al Congreso.
Adicionalmente, a todos los que han aceptado las invitaciones de la organización como
conferenciantes invitados. Una mención especial para los patrocinadores, que con su
imprescindible apoyo financiero han permitido que el congreso sea una realidad. Reconocimiento
sincero para los miembros del Comité Científico, cuya actividad de revisión de los trabajos
presentados ha puesto el ingrediente de calidad para seguir avanzando en el conocimiento
científico y tecnológico. Todos esos actores han permitido la generación de los contenidos que el
lector puede disfrutar en esta edición de las memorias del COMPDES2019.

San Salvador (El Salvador), julio de 2019

Oscar López Villegas


Presidente de la Red COMPDES
Tecnológico de Costa Rica
olopez@[Link]
Índice de Contenidos

Prólogo
Óscar López Villegas 8

Ponencias
Sistema web para determinar y visualizar la localización de 16
subestaciones eléctricas
Oscar Danilo Rivera Moreira, Yader David Castillo Hurtado y
Adilson Isaac Gonzalez Lopez
Proyectos IoT en El Salvador IoT projects in El Salvador 26
Marlene Elizabeth Aguilar Navarro y Gisela Yasmín García Espi-
noza
Predecir el uso de red de dispositivos Cisco Meraki utilizando Machine 36
Learning
Efrén Jiménez Delgado, Jose Pablo Brenes Alfaro y Daniel Ama-
dor Salas
Diseño de un prototipo de sistema de realidad virtual inmersiva para el 43
estudio de la anatomía humana
Gabriel Rafael Lacayo Saballos y Víctor López Castillo
Applications of Scanning Electron Microscopy y Elemental Analysis 49
of electronic components y supporting for scientific research in El
Salvador
Angel Hernández, Jonathan Ventura y Rainer Christoph
Implementación de sistema de riego Automatizado y controlado de 57
forma inalámbrica (Smart Plant System), para la finca
“Nicatinahuac”, comunidad de Troilo, León, Nicaragua
Arnoldo José Contreras Mercado y Jairo José Martínez Jirón.
Evaluación de Fugas de Información en Sitios Web de las 67
Universidades de Nicaragua por Medio de Documentos Públicos
Nestor Antonio TraÑa Obando y Engels Josue Delgado Torrez
Segmentación en lesiones de piel utilizando redes neuronales 76
convolucionales y campos aleatorios condicionales
Anthony Segura y Efrén Jiménez Delgado
Análisis de la Usabilidad de una Aplicación Móvil dirigida a Niños en 82
Edad Pre-Escolar: Caso de Estudio “Kinder”
Jeyner Antonio Tellez Medrano, Clarence Montenegro Gallegos y
Anayanci Lopez Poveda
Aplicación “UDAFORMIN” para la determinación del tipo de 92
fortificación minera
Patricio Feijoo, Adrian Bravo y Nicolas Escandon
Plataforma basada en IoT para monitorear a la madre embarazada en 98
riesgo de preeclamsia: MotherNet
Edna Bernal Monroy, Sixto Campaña Batidas, Henry Bolaños
Bravo, Jhon Alexander Rosero, Harold Emilio Cabrera Meza y Ál-
varo José Cervelion Bastidas
Enseñar Programación a Todos usando Arduino 108
Esteban Arias-Méndez
Alfabetización STEAM para las niñas y niños de Centroamérica-Diana 114
Alvarado
Solano y Esteban Arias-Méndez
Optimización de los recursos hídricos a través del Internet de las Cosas 125
en el proceso de siembra del Ingenio de Caña de Azúcar ‘El Viejo’
Luis Eduardo Amaya Briceño y Jose Jonathan Rugama
Uso de dispositivos móviles inteligentes descontinuados para enlazar 134
un sistema de video vigilancia de bajo costo
Christian Alberto López Quiroa
Aplicación de Partial Least Square (PLS) a opiniones de diputados del 142
Salvador
Luis Eduardo Amaya Briceño
Detención de frade en tarjetas de crédito utilizando aprendizaje 152
automatizado
Efrén Jiménez Delgado, Nelson Andrés Mora Jiménez y Yony Al-
berto Méndez Suárez
Uso de fotogrametría mediante drone, para reconstrucción de árboles 157
Leiver Adrian Jiménez Ureña, Andrés García Salas y Rogelio
Gonzáles Quirós
Optimal Control for WNCS, Through The Cloud 163
Carlos Pillajo, Paul Pachacama, Silvia Chuquin y Roberto Hinca-
pié
Una breve perspectiva del currículo de computación en el 171
advenimiento de las tecnologías cuánticas. Caso: Universidad
Nacional de Ingeniería, Managua, Nicaragua
Narciso Javier Aguilera Centeno
Valu-Sol Consumidor. Asistente Informático para Eficiencia en 182
Consumo de Electricidad-Alden Jirón, Christopher Manzanares y
Marco Sandino
Educación inteligente en zonas rurales- Análisis multidimensional de 192
la Zona de San Carlos
Rocio Quirós Oviedo y Ana Lorena Valerio Solis
Educación tecnológica para el desarrollo. Robótica en la escuela como 202
propuesta educativa situada
Silvina Beatriz Barroso y Alicia Herminia Sposetti
Agentes Inteligentes en la Automatización de actividades Docentes - 209
Uso de Agentes Inteligentes y Bots para el paso de listado de
asistencia en aulas de clases universitarias
José Inestroza
Viggibot: robot para vigilancia y reconocimiento de personas 218
Stewart Blanco, Josué Esquivel, Katherine Salazar y Anthony Se-
gura
Sistema IoT de reconocimiento de lechugas listas para corta y 227
monitoreo de humedad y temperatura con Raspberry Pi Zero
Felipe Boza Salas, Emilio Bemúdez Mora, Josua Carranza Pérez y
Kevin López Ubau
Selección de Atributos Distribuida: Una revisión de las herramientas y 239
literatura reciente
Raul Jose Palma Mendoza
Análisis de la aplicación del modelo de luz Phong a una imagen facial 249
3D obtenida de una cámara de profundidad
Jose Manuel Oviedo Corella y Rogelio Gonzalez

Pósters
Análisis del rendimiento y potencial del framework Flutter para el 257
desarrollo de aplicaciones móviles multiplataforma
Jafeth Vásquez Herrera y Steven Peraza Porras
Clasificación de intencionalidad de las aplicaciones en dispositivos 261
Cisco Meraki utilizando Machine Learning
José Pablo Brenes Alfaro, Efrén Antonio Jiménez Delgado y Daniel
Amador Salas
Aplicaciones de Arduino para personas con discapacidad, un apoyo al 265
aprendizaje en educación secundaria
Axel Tapia Sanchez
El aprendizaje de una lengua extranjera a través de un ecosistema 268
digital, mitos y realidades en la educación básica
Jesús Librado Tapia Valladares
Uso del sistema PLC (Power Line Communications) como propuesta 272
para la distribución de Internet mediante red eléctrica de baja tensión
Juan Mora y Victor Manuel Rocha Galo
Inteligencia Artificial y Testimonio 276
Juan de la Cruz

Talleres
Introducción a Machine Learning con Python 281
Jairo Pacheco Campos, Allan Carrillo Salazar, Efrén Antonio Ji-
ménez Delgado, José Pablo Brenes Alfaro, Jason Barrantes Rodrí-
guez y Anthony Segura Chaves
Introducción Machine Leaning utilizando Scala y Spark 285
Anthony Segura Chaves, José Pablo Brenes Alfaro, Luis Emilio Sa-
las Vargas, Daniel Amador Salas, Efrén Antonio Jiménez Delgado y
Jason Barrantes Rodiguez
Introducción a Flutter Desarrollo Movil con Aleteo 288
Raúl Ernesto Perdomo Coreas, Obed Alberto Castro Orellana y
Luis José Iraheta Medrano
Introducción a la Integración Bots de Telegram con Arduino 297
Jose Daniel Amador Salas, Magaly Segura Arias y Natalia Navarro
Vega
Análisis de Redes Sociales: Recolección y visualización de datos en 301
Twitter
James Edward Humberstone Morales, Fernando José Alvarez
Alens y Romeo Alexander Muñoz Rodríguez
Introducción al manejo de sistemas de control de versiones con Git y 304
Github
Jose Pablo Calvo Suarez
Introducción a la programación de Aplicaciones Móviles con Flutter 307
Jafeth Vásquez Herrera y Steven Peraza Porras
Analizando Metadatos de Archivos Públicos y Privados con FOCA 311
Nestor Antonio Traña Obando y Engels Josue Delgado Torrez
Taller: Introducción a la Programación con Arduino 313
Esteban Arias-Méndez
Pre-Entrenamiento de modelos de datos para el reconocimiento de 316
objetos mediante Visión Artificial
Raquel Miranda y Leiver Jiménez
Fundamentals of Modeling for Prototypes for 3D Printing 321
Danier Cubillo Morales
Aprender jugando con Makey-Makey 325
Yuliana Rojas Serrano, Daniela Alvaro Otoya y Rocío De Los Án-
geles Quirós Oviedo
Entendiendo la Energía a través de la Robótica 329
David Sequeira Castro y Vanessa Carvajal Alfaro
Ahorro energético Construcción de un modelo eólico mediante 332
herramientas de robótica
Ana Lorena Valerio Solís y Vanessa Carvajal Alfaro
Creación de sitios web modernos con CSS GRID 335
Wilber David Mendéz Rodríguez
Introducción al data warehouse 338
Emilson Omar Acosta Girón
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Ponencias

15
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Sistema web para determinar y visualizar la


localización de subestaciones eléctricas.
Implementación de Algoritmo – A.A. Feodorov y Eduardo Rodriguez López

Web system to determinate and visualize the


location of electrical substations.
Algorithm Implementation – A.A. Feodorov y Eduado Rodriguez López

Castillo Yader
Universidad Nacional de Ingeniería
Managua, Nicaragua
yader.castillo749@[Link]

Rivera Oscar
Universidad Nacional de Ingeniería
Managua, Nicaragua
oscar.rivera484@[Link]

Gonzalez Adilson
Universidad Nacional de Ingeniería
Managua, Nicaragua
[Link]@[Link]

Resumen — Este documento describe el desarrollo de un sistema web basado en la implementación de un


algoritmo matemático para la Localización de Subestaciones Eléctricas. Con la incorrecta ubicación de
Subestaciones Eléctricas, los índices técnicos-económicos del sistema de suministro resultan deficientes y,
consecuentemente incremento de gastos anuales, el desarrollo del sistema web pretende contribuir a una correcta
ubicación de estas Subestaciones Eléctricas mediante la visualización de la ubicación de estas en un mapa de
Google Maps y la metodología SCRUM que se ha sido implementada. Para este desarrollo se consideró el ciclo de
vida desarrollo de software, auxiliándonos de tecnologías web como HTML, CSS, JS, Google Maps API, Chart
JS, JSDT, [Link] MVC, Azure, SQL Server, las cuales facilitaron el desarrollo del sistema web.

Palabras clave; Subestaciones; Energía; Algoritmo.


Abstract — This document describes the development of a web system based on the implementation of a
mathematical algorithm for the Location of Electrical Substations. With the incorrect location of Electrical
Substations, the technical-economic indices of the supply system are deficient and, consequently, increase in
annual expenses, the development of the web system aims to contribute to the correct location of these Electrical
Substations by visualizing the location of the same in a Google map and the SCRUM methodology that we have
implemented. For this development we considered the software development life cycle, helping us with web
technologies such as HTML, CSS, JS, Google Maps API, Chart JS, JSDT, [Link] MVC, Azure, SQL Server,
which facilitated the development of the web system.

Keywords; Substations; Energy; Algorithm.

I. INTRODUCCIÓN
Una sub estación eléctrica es una instalación física destinada para proporcionar transmisión y distribución
de energía eléctrica.
Una correcta ubicación de la subestación garantiza una máxima confiabilidad, flexibilidad en operaciones,
alto nivel de continuidad de servicio y permite el rápido restablecimiento del servicio después que ocurra
una falla, sin omitir una reducción de costos en cuanto a material se refiere. Con la ubicación racional de las
subestaciones eléctricas, los índices técnicos-económicos del sistema de suministro resultan óptimos y,
consecuentemente garantizan el mínimo de gastos anuales.

16
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

“Por lo general estos cálculos son realizados actualmente de forma manual, lo que ocasiona que el tiempo para poder
obtener resultados de forma eficaz es altamente bajo, elevando también el grado cometer errores que pueden dar como
resultado una mala ubicación de la subestación en la zona especificada, trayendo consigo una mala distribución del
suministro eléctrico cuando la población que es abastecida crezca a lo largo del tiempo” según Dr. Víctor Hernández
M (Ingeniero Eléctrico, Catedrático de la Universidad Nacional de Ingeniería).

Con el fin de contribuir a este cálculo, y las distintos aspectos que conlleva, nace el proyecto GLOCSE
(Geolocalización y Localización de Subestaciones - Eléctricas) una herramienta web que permite calcular la
localización de la subestación eléctrica, mostrando de forma visual e interactiva en un plano de coordenadas
2D la zona establecida para realizar los estudios donde será ubicada la sub estación eléctrica, ubicando
consumidores, centros de cargas (1ra, 2da, 3er categoría), calculando los centros eventuales de carga, el
punto de localización y la zona de dispersión.

Para la correcta realización del proyecto GLOCSE se tomaron consideraciones, normas, y elementos
eléctricos que rigen la localización, así como el algoritmo matemático para el cálculo, y ubicación de futuros
consumidores, y posibles cargas a conectarse, que permitieron el desarrollo de la herramienta web tomando
en cuenta el ciclo general de desarrollo de software.

El lector en este documento se dará cuenta de cuan ágil resulta este proceso de cálculo utilizando la
herramienta web desarrollada.

II. OBJETIVOS
OBJETIVO GENERAL:
Desarrollar un sistema web para determinar y visualizar la localización de las subestaciones eléctricas.

OBJETIVOS ESPECIFICOS:
1) Definir los requerimientos y el alcance del sistema a partir de la necesidad y algoritmos seleccionados.
2) Diseñar los modelos para el sistema web a partir del análisis de los requerimientos.
3) Construir el diseño utilizando algunas tecnologías web tales como HTML, CSS, JavaScript, JQuery,
[Link], Bootstrap y Google Maps API.
4) Implementar el sistema web y realizar pruebas que retroalimenten el funcionamiento del sistema
propuesto.

III. LOCALIZACIÓN DE SUBESTACIONES ELÉCTRICAS

A. Determinación del centro condicional de cargas eléctricas


El algoritmo implementado fue originalmente desarrollado por A.A. Feodorov y Eduardo Rodríguez
López [1, pp. 114 - 118], el cual se presentará a continuación, mostrando la implementación de este con el
uso de tecnologías web que conllevaron a la creación de este proyecto.
El problema de fundamental importancia en la proyección de los sistemas de suministro electro
energético de empresas industriales lo constituye la determinación de la localización óptima de las
subestaciones de alimentación. La aplicación de criterios cualitativos en el análisis de este problema
regularmente conduce hacia soluciones que no cuentan con el amparo de una adecuada fundamentación
técnico-económica. Por otra parte, la suposición de que la subestación será correctamente ubicada cuando se
le haga coincidir con el centro de cargas eléctricas, considerando éste como un punto estático en el que
pudiera suponerse concentrada toda la carga, es también errónea.
Como es sabido, la carga de cada consumidor independiente varía con el tiempo, según su gráfico
característico de cargas y otros factores.
La aplicación de la analogía entre carga eléctrica y masa, a los efectos de determinar el centro de cargas
de un conjunto de consumidores independientes, dará como resultado una diferente localización de éste para
cada instante de tiempo considerado. Por ello, más que de un centro estático de cargas, debe hablarse de

17
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

centros eventuales de carga, cuya cuantía depende de la unidad de tiempo considerada y cuya ocurrencia
deberá ser analizada, como fenómeno casuístico o aleatorio, por la teoría de las probabilidades.
Las coordenadas xi, yi de los centros eventuales de carga constituyen los valores numéricos que adoptan
las variables aleatorias X Y, éstas, a su vez forman lo que en teoría de las probabilidades se denomina una
magnitud bidimensional o sistema de dos variables aleatorias y como tal se tratan aquí.
Un correcto análisis demuestra que, con una probabilidad confiable, las coordenadas xi, yi ocurren dentro
de una elipse, que tiene como coordenadas de su centro las dadas por la esperanza matemática de la magnitud
bidimensional X Y y cuyos parámetros pueden ser evaluados.
La localización de la subestación dentro de la zona delimitada por la elipse, también denominada zona
de dispersión del centro de cargas eléctricas estará siempre avalada por una mayor ventaja o conveniencia
económica, a la vez que posibilita la construcción de un sistema de suministro más confiable desde el punto
de vista técnico. Con ello, se reduce la longitud de los circuitos de voltaje secundario, se reducen las pérdidas
de energía y desviaciones de voltaje, se reduce la zona de fallas, etcétera.
Desde un sentido algo más práctico, estas consideraciones pueden interpretarse como un conjunto n de
consumidores independientes, que habrán de ser alimentados a través de una subestación principal reductora,
la cual se quiere localizar óptimamente. Para cada consumidor se conoce el gráfico de cargas (escalonado,
con intervalos de una hora), determinado durante el día característico. Por analogía, tomando en
consideración fundamentos de la Mecánica Teórica, es posible afirmar que las coordenadas de los centros
eventuales de cargas (en el caso considerando, uno por cada hora del día) vendrán dadas por las expresiones
siguientes:
∑nj=1 Pij xj
xi =
∑nj=1 Pij
(1)
∑nj=1 Pij yj
yi =
∑nj=1 Pij
donde:
Pij = potencia de cada consumidor j, en la hora (i = 1, 2, …, 24);
xj, yj = coordenadas de cada consumidor;
n= número total de consumidores.

Como lo demuestra la práctica, el cálculo de una tercera coordenada zi no resulta necesario.


La ocurrencia de los centros eventuales de carga, sobre el plano general de la instalación, está sometida
a una gran cantidad de factores que la hacen fortuita.
Teniendo en cuenta el teorema de Liapunov y como resultado de las investigaciones realizadas, puede
afirmarse que la magnitud bidimensional X Y constituida por las coordenadas xi y yi de los centros eventuales
de carga, está subordinada a la ley normal de distribución (ley de Gauss-Laplace).
En su forma más genérica, la ley normal de distribución para una magnitud bidimensional X, Y se define:

2
1 (x-a )2 2r(x-ax )(y-ay ) (y-ay )
1 - 2 [ x2 - + 2 ]
2(1-r ) σx σx σy σy
f(x,y)= e (2)
2πσx σy √1-r2

Donde:
ax, ay = esperanzas matemáticas de las coordenadas eventuales;
σx , σy = dispersiones de las coordenadas eventuales;
r = factor de correlación de las coordenadas eventuales.

La expresión (2) representa una superficie de distribución, con forma de colina cuya mayor altura se
encuentra en el punto (ax, ay) (Fig. 1)

18
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 1. Superficie de distribución normal

Figura 2. Proyección del seccionamiento transversal de la superficie curva de distribución normal.

Con el seccionamiento de la superficie de distribución, según planos paralelos al eje f(x, y), se obtienen
curvas semejantes a las curvas normales de distribución. El seccionamiento de la superficie de distribución,
por planos paralelos al plano xoy, proporcionará una familia de elipses, cuyo centro común se encuentra en
el punto (ax, ay), Fig. 2.
Frecuentemente, durante la determinación de la ley tórica de distribución, las esperanzas matemáticas,
dispersiones y factor de correlación resultan desconocidas y para su determinación se supone que ellas
coinciden con los correspondientes valores de la distribución empírica.
Las características numéricas de la distribución empírica se determinan por las expresiones siguientes:
• Esperanzas matemáticas:
ax = ∑nk=1 xk pkx ; ay = ∑nk=1 yk pky (3)
donde:
Pkx, Pky = probabilidad empírica de ocurrencia del valor x, y.
A simple vista se aprecia que la esperanza matemática puede ser interpretada como el valor medio de
los valores empíricos de las magnitudes aleatorias, así:
ax = ∑ni=1 xi /𝑛 ay = ∑ni=1 y𝑖 /n (3.a)
• Dispersión = Esperanza matemática del cuadrado de la desviación de la magnitud aleatoria respecto
de su esperanza matemática.
2
Dx = ∑nk=1 pkx (xk -ax )2 ; Dy = ∑nk=1 pky (𝑦k -ay ) (4)
O, lo que es lo mismo:
2
(xi -ax )2 (𝑦i -ay )
Dx = ∑ni=1 ; D𝑦 = ∑ni=1 (4.a)
n n

19
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Está probado, sin embargo, que cuando se trata de inferir resultados generales a partir de una pequeña
muestra, como es el caso, las dispersiones obtenidas por medio de las expresiones 4.a resultan ligeramente
menores que las verdaderas. Se sugiere, entonces, introducir una modificación consistente en cambiar el
divisor n por n-1, resultando las expresiones siguientes:

2
(xi -ax )2 (𝑦i -ay )
Dx = ∑ni=1 ; D𝑦 = ∑ni=1 (4.b)
n-1 n -1

La dimensión de la dispersión es la de la magnitud aleatoria, elevada al cuadrado. Para facilitar el


tratamiento dimensional, se define la variación cuadrática media, dada por:

σ x = √ Dx σ y = √ Dy (4.c)

De donde se definen las medidas de exactitud de las variables aleatorias:


1 1
hx = hy = (4.d)
σx √2 σy √2

• Momento de correlación: esperanza matemática del producto de las desviaciones de las magnitudes
aleatorias respecto de sus esperanzas matemáticas:
(xi -ax )(yi -ay )
Cxy = ∑ni=1 (5)
n

En este caso resulta igualmente válida la corrección anterior, por lo que el momento de correlación
vendrá dado por:
(xi -ax )(yi -ay )
Cxy = ∑ni=1 (5.a)
n-1

El momento de correlación caracteriza no sólo la dependencia de las magnitudes X, Y, sino también su


dispersión. En la práctica, resulta preferible la consideración de una característica adimensional, denominada
coeficiente de correlación r:

Cxy
r= (6)
σx σy

Una magnitud bidimensional será correlacionada siempre que r ≠ 0; en caso contrario, ésta será no
correlacionada. Puede afirmarse, además que para un sistema de dos variables aleatorias los conceptos de
correlación y dependencia son equivalentes. Esto es, si r = 0, X, Y son independientes; si r ≠ 0, X, Y son
dependientes.

B. Determinación de la zona de dispersión de los centros eventuales de cargas [1, pp. 118 - 121]
Después que ha sido encontrada la ley de distribución de las coordenadas de los centros eventuales de cargas,
y determinadas sus características numéricas, se determina que la zona de dispersión de dichos centros de
cargas. Para ello, seccionamos la superficie normal de distribución (fórmula 2, Fig. 1), según un plano
horizontal H, paralelo al x0y. La proyección de la sección obtenida sobres el plano x0y estará limitada por
la curva expresada por la fórmula:
2
1 (x-a )2 2r(x-ax )(y-ay ) (y-ay )
- [ x - + ]
2(1-r2 ) σx 2 σx σ y σy 2
H=Q*e (7)

20
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

2
𝐻 1 (x-ax )2 2r(x-ax )(y-ay ) (y-ay )
ln = - [ - + ] (8)
𝑄 2(1-r2 ) σx 2 σx σy σy 2

donde:
1
Q=
2πσx σy √1-r2

Simbolizando 2(1-r2) ln H/Q = λ2, obtenemos la ecuación de una elipse, denominada elipse -λ:
2
(x-ax )2 2r(x-ax )(y-ay ) (y-ay )
- + = λ2 (9)
σx 2 σx σy σy 2

La ecuación de la elipse - λ puede ser analizada por los métodos convencionales de la geometría analítica.
Aplicando éstos, llegamos a la conclusión de que, efectivamente, el centro de la elipse se encuentra en el
punto con coordenadas (ax, ay); que los ejes de simetría de la elipse forman ángulos con el eje 0x,
determinados por la expresión

2rσx σy
tan 2α =
σx 2 − σy 2

O
(10)
1 2Cxy
α = tan-1
2 D x - Dy

De esta ecuación son obtenidos dos valores de ángulos, desplazados entre sí 90°.

De esta manera, la orientación de la elipse, con respecto a los ejes coordenados originales, se halla en
dependencia directa del coeficiente de correlación r del sistema (X, Y); si las magnitudes son no
correlacionadas (es decir, independientes), los ejes de simetría de la elipse son paralelos a los ejes
coordenados; en caso contrario, formarán algún ángulo con respecto a dicho ejes. Es sabido que la ecuación
de la elipse se adopta a su forma más simple, denominada forma canónica, si los ejes coordenados coinciden
con los ejes de simetría de la elipse. Para pasar la ecuación de la elipse de dispersión a su forma canónica es
suficiente trasladar el origen de coordenadas al punto (ax, ay) y rotar los ejes coordenados un ángulo α,
determinando por la expresión (10). Se obtiene, así, un nuevo sistema de ejes coordenados ψ o φ, para el que
r = 0 o, lo que es lo mismo, para el que las nuevas variables o magnitudes aleatorias ψ y φ resultan
independientes. La forma canónica de la ley normal en el plano viene dada, entonces por:

1 ψ2 φ2
1 - ( + )
2 σψ 2 σφ 2
f(ψ, φ ) = e (11)
2πσψ σφ
Donde:

σψ , σφ = desviaciones medio-cuadráticas de las coordenadas eventuales ψ, φ, en el sistema de coordenadas


ψ o φ.

Las desviaciones medio-cuadráticas σψ , σφ se expresan a través de las desviaciones medio-cuadráticas del


sistema original de coordenadas, por las fórmulas:
σψ 2 = σx 2 𝑐𝑜𝑠 2 𝛼 + 𝑟σx σy 𝑠𝑒𝑛 2𝛼 + σy 2 𝑠𝑒𝑛2 𝛼
(12)
σφ 2 = σx 2 𝑠𝑒𝑛2 𝛼 − 𝑟σx σy 𝑠𝑒𝑛 2𝛼 + σy 2 𝑐𝑜𝑠 2 𝛼

La ecuación de la elipse de dispersión en la forma canónica adopta la forma siguiente:

ℎψ 2 𝜓 2 + ℎφ 2 φ2 = λ2 (13)
Donde:

21
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

1 1
hψ = σψ ; hφ = σφ
√2 √2

Para la ecuación (13) resulta evidente que los semiejes vienen dados por:
λ λ
Rψ = ; Rφ = (14)
hψ hφ

La probabilidad P(λ) de ocurrencia de los centros eventuales de carga, dentro de la elipse, está dada por:

P(λ)= ∬s(λ) f(ψ, φ ) dψ dφ


Donde:

s(λ) = área, limitada por la elipse - λ.

Resolviendo, se obtiene:
2
P(λ) = 1 − 𝑒 −𝜆 (15)

Es decir, la probabilidad de ocurrencia de los centros eventuales de cargas en la elipse de dispersión es una
función de λ. Tomando en calidad de probabilidad confiable el valor P(λ) = 0.95 y resolviendo la ecuación
(15), obtenemos:
2
0.95 = 1 − 𝑒 −𝜆
De donde:
𝜆2 ≈ 3

Con ello, se ha encontrado que el 95% de los centros eventuales de carga ocurren dentro de una elipse cuyos
semiejes, según las expresiones (14), son iguales a:
√3 √3
Rψ = ; Rφ =
hψ hφ

IV. METODOLOGÍA DE DESAROLLO HÁBIL SCRUM

Al momento de que se presentó esta propuesta de desarrollo, se fue necesario seleccionar una herramienta
que ayudase al trabajo en equipo abordando un proceso de desarrollo de software de forma ágil y liviana,
mediante la asignación de un conjunto de roles y organizaciones de actividades diarias. Consistiendo en la
división del trabajo completo (denominado en SCRUM [2] como Product Backlogs) en sub-asignaciones
que serían abarcadas en periodos cortos de tiempo, aproximadamente entre una y cuatro semanas (Sprints).

Realizando la asignación de algunos roles tal como Product owner (Adilson González), el cual se encuentra
encargado de transmitir al equipo de desarrollo la visión del producto que se desea crear, aportando la
perspectiva de negocio; el Usuario Víctor Hernández el cual es el destinatario final que recibirá el producto
una vez que este haya sido concluido, al cual se le han presentado los avances más recientes del desarrollo
de este sistema web.

El equipo de desarrollo se encuentra conformado por Oscar Rivera y Yader Castillo, siendo los encargados
del desarrollo del software y entrega del producto, cada uno de los miembros de este grupo se autogestiona
y organiza según los Sprints establecidos en las reuniones que se realizan para tomar decisiones al respecto
de lo que se ha avanzado, las dificultades presentadas, y lo que se avanzará, ya sea de forma presencial o
virtual.

Dicha metodología consta de elementos que la componen, tales como:


1) Fases: Se definen actividades que hay que realizar por cada fase de la que consta el proyecto, tales
como el desarrollo de la interfaz gráfica, y la codificación e implementación del algoritmo.

22
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

2) Métodos: Simplificación de Fases en conjuntos de procesos divididos para el avance del mismo
particionalmente, así como la codificación individual de cada función que compone al algoritmo, de igual
manera cada una de las vistas que componen todo el sistema web.

3) Técnicas y Herramientas: Por esta parte se centra el enfoque a conocimientos de programación para
la implementación de los mismos en los algoritmos matemáticos, y estos a su vez en la interfaz gráfica de
modo que sean útiles para el usuario.

4) Documentación: Haciendo referencia a la documentación que se entregará durante todas las fases, la
cual se deberá hacer de forma exhaustiva y completa usando todos los valores de entrada y salida que se van
generando, esto con el fin de recopilar resultados y tomar decisiones de las diferentes situaciones planteadas.

5) Control y Evaluación: Recopilación de los avances de cada proceso y de cada fase, con el objetivo de
llevar un orden de trabajo. Logrando visualizar si los datos de entradas y datos de salida son veraces y
confiables, para la aceptación de lo desarrollado y la aprobación a un nuevo proceso y/o fase.
V. DESARROLLO DE SOFTWARE
A. Análisis y Diseño

Figura 3. Estructuración del sistema web GLOCSE

Figura 4. Diseño de la Web

23
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Se han tomado en cuenta aquellos parámetros que serán necesarios para el desarrollo del sistema, y de los
resultados que el sistema provee una vez que hayan sido procesados los datos. Realizando una clasificación
de los aspectos en que se divide el sistema, tal como la sección de mapa, gráficas, reportes, proyecciones y
configuración; a como se muestra en la Fig. 4.

Pantalla Principal: Aquí se muestra el mapa, el cual es la pantalla principal de la aplicación en donde el
usuario pondrá los centros eventuales y se harán los cálculos y representación de la elipse.

Graficas: El sistema permitirá ver graficas interactivas para ver el consumo eléctrico de cada consumidor
que fue ingresado por el usuario en el mapa.

Reportes: Permitirá ver en detalle por ejemplo las cantidades de carga que tenemos en el mapa, sus
ubicaciones, centros eventuales, radios de la elipse, entre otras cosas.

Proyecciones: Permite trabajar con las proyecciones, las proyecciones son mapas que van variando la
ubicación de los centros eventuales cada 10 años esto se hace para mejorar el cálculo de la elipse y por
consecuente una posición para la subestación electica más factible.

Configuración: Permite configurar algunos elementos de la aplicación como por ejemplo si deseamos ver uno u otro
determinado pin, la opacidad de las elipses y los colores de la misma.

B. Codificación

Dentro de las funciones creadas en el proyecto, se mostrarán a continuación las más importantes y
más relacionadas a la implementación del algoritmo matemático para la determinación y ubicación de
las subestaciones eléctricas.

Function CentrosEventualesDeCarga: Se encarga de hacer el cálculo de los 24 centros eventuales


que se pondrán en el mapa y que son el resultado de la ubicación de la subestación eléctrica en las 24
horas del día.

Function MedidasDeVariacion: Esta función está encargada de hacer los cálculos estadísticos por
hora sacando el mínimo, promedio y máximo por hora de todos los centros eventuales de carga.

Function Puntos: Se encarga de realizar el cálculo de la ubicación física (Coordenadas x e y) de los


puntos de la elipse.

Function Dibujo_Elipse: Se encarga de realizar el dibujo de la elipse, de los puntos que previamente
fueron calculados en la función mostrada anteriormente ahora se procede a convertir dichos puntos a
coordenadas del mundo real y ubicarlos en el mapa de google maps.

Function DetectarInterseccion: Permite detectar las intersecciones entre polígonos esto se hace para
calcular el centro más óptimo cuando se tiene más de una proyección.

C. Resultado y Pruebas

Abrimos el menú de opciones y limitamos el mapa para definir nuestra zona de trabajo, seleccionando la
opción que dice “Limitar Mapa”, se añaden a los consumidores con clic derecho, y si queremos definimos
su categoría y su consumo de potencias por hora daremos clic izquierdo sobre el consumidor. En el menú se
presiona el botón procesar elipse, para la implementación del conjunto de algoritmos que generarán nuestra
elipse, una vez realizado el proceso para las tres elipses, se procede a presionar el botón de configuración y
en la sección proyección global seleccionamos la opción ver todo, Fig.5.

24
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 5. Visualización de las tres elipses en el mismo mapa.

Como resultado se visualizarán las 3 elipses realizadas durante el desarrollo de este documento, en
conjunto con consumidores, centros eventuales de cargas, y las intersecciones de las mismas, generándose
un cuarto Pin de color amarillo, el cual representa el lugar ideal de la subestación a lo largo del tiempo,
recordando que cada proyección representa un tiempo (año actual, dentro de cinco años y diez años).

VI. CONCLUSIONES

Como conclusión se logró desarrollar una aplicación web ayudado con la metodología SCRUM de
acuerdo, a pruebas por el usuario (uno de los usuarios finales), el Dr. Víctor Hernández, se logró comprobar
que es intuitivo y fácil de manejar debido a la interfaz gráfica que presenta, el tiempo que se necesita para la
realización de todos los cálculos requeridos por el algoritmo es considerablemente menor, lo cual agiliza los
demás procesos (elaboración de reportes, gráficas por consumidor, etc.).

Mediante el uso de herramientas tecnológicas digitales, se ha desarrollado este sistema con el fin de dar
una respuesta a la necesidad planteada por el Usuario, siendo de uso sencillo, práctico e intuitivo para
aquellas personas que harán uso del mismo.

VII. AGRADECIMIENTOS
Para el desarrollo de este trabajo se agradece al PhD. Víctor Hernández Profesor Titular de la Carrera de
Ingeniería Eléctrica y a la Facultad de Electrotecnia y Computación
VIII. REFERENCIAS BIBLIOGRÁFICAS

[1] Suministro Eléctrico de Empresas Industriales, Ciudad de La Habana: EDITORIAL PUEBLO Y


EDUCACION, 1982.
[2] W. Lara, «Platzi,» [En línea]. Available: [Link]

25
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Proyectos IoT en El Salvador


IoT projects in El Salvador
Marlene Navarro
Unidad de Investigación, Facultad de Ciencia y Tecnología
Universidad Gerardo Barrios - UGB
San Miguel, El Salvador
maguilar@[Link]

Gisela Espinoza
Unidad de Investigación, Facultad de Ciencia y Tecnología
Universidad Gerardo Barrios - UGB
San Miguel, El Salvador
ggarcia@[Link]

Resumen — El estudio consiste en una investigación cuantitativa — cualitativa, sobre los proyectos desarrollados
bajo tecnología Internet de las Cosas (IoT) por instituciones de educación de las zonas central y oriental de El
Salvador.

En el estudio participaron doce instituciones de educación entre las cuales una es de educación básica, cinco
de educación media y seis de educación superior , pertenecientes a la zona central y oriental de El Salvador; el
objetivo principal del estudio permitió conocer a detalle los proyectos desarrollados basados en tecnología IoT;
la tecnología utilizada y los criterios a tomar en cuenta para la selección de dispositivos.

Los resultados de la investigación permiten evidenciar que las instituciones de educación de El Salvador,
están comprometidas con los avances tecnológicos y el solventar problemáticas de diferentes sectores
implementando soluciones inteligentes que en un futuro serán la base de la transformación tecnológica de la
sociedad salvadoreña.

Palabras clave; IoT; El Salvador; Internet de las Cosas; tecnología, TIC


Abstract — The study consists of quantitative — qualitative research on projects developed under the Internet
of Things (IoT) technology by educational institutions in the central and eastern areas of El Salvador.

The study involved 12 educational institutions, among which one is basic education, five secondary education,
and six higher education, belonging to the central and eastern El Salvador; the main objective of the study
allowed to know in detail the projects developed based on IoT technology; the technology used and the criteria
to be taken into account for the selection of devices.

The results of the investigation show that the educational institutions of El Salvador are committed to
technological advances and solving problems in different sectors by implementing intelligent solutions that in
the future will be the basis of the technological transformation of Salvadoran society.

Keywords; IoT; El Salvador; Internet of Things; technology, TIC

INTRODUCCIÓN
El «Internet de las Cosas» (Internet of Things, habitualmente referido por sus siglas inglesas IoT),
también denominado por algunos «Internet de los Objetos» (IO) es un supra concepto que caracteriza la
próxima gran transformación en la evolución de Internet: su expansión más allá de la comunicación entre las
personas, o entre las personas y el contenido digital, que ahora se extiende a miles de millones de objetos
cotidianos. Los sistemas IoT implican la adquisición de datos de sensores y la entrega de órdenes a
dispositivos que interactúan o forman parte del mundo real. También reconocen eventos y cambios, y pueden
reaccionar de forma autónoma y apropiada. El Internet de las Cosas se equipará a menudo con
electrodomésticos y bienes de consumo, como las ropas tecnológicas (wearables) o los coches inteligentes.
Por otro lado, el proceso continuo de expansión de Internet y gestación de nuevas tecnologías, servicios
y plataformas ha permitido la emergencia del fenómeno conocido como «Internet de las Cosas» (Internet of
Things, habitualmente denominado por sus siglas inglesas IoT y que también emplearemos aquí), que supone

26
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

la evolución de Internet desde una red de ordenadores interconectados hasta una red de objetos
interconectados. El IoT ha sido llamado por voces cualificadas a ser uno de los agentes de la «cuarta
revolución industrial», la Industria 4.0, junto con la inteligencia artificial, la robótica, la impresión 3D y 4D,
la nanotecnología, la biotecnología o la ciencia de los materiales, por nombrar algunos de sus motores
fundamentales. [1]
La problemática principal del tema de estudio radica en la transformación digital que se realiza a nivel
mundial y poco a poco todos los países desde cada una de sus necesidades generan ideas y desarrollo de
soluciones inteligentes que permiten obtención de datos que son tan importantes para la toma de decisiones
e implementación de nuevas tecnologías en las ciudades a mayor escala.
El objetivo principal del estudio es conocer los proyectos desarrollados basados en tecnología IoT,
orientados a diferentes problemáticas; a través del diseño de diferentes instrumentos permitieron la
recolección de datos de parte de algunas de las instituciones de educación a nivel media y superior, de El
Salvador.
ANTECEDENTES
A. ¿Qué es Internet de las Cosas (IoT)?
El término Internet de las Cosas se refiere a escenarios en los que la conectividad de red y la capacidad
de cómputo se extienden a objetos, sensores y artículos de uso diario que habitualmente no se consideran
computadoras, permitiendo que estos dispositivos generen, intercambien y consuman datos con una mínima
intervención humana.
La implementación a gran escala de dispositivos de la IoT promete transformar muchos aspectos de la
forma en que vivimos. Para los consumidores, los nuevos productos de la IoT —electrodomésticos,
componentes de automatización del hogar y dispositivos de gestión de energía con conexión a Internet—
nos están llevando hacia una visión de la “casa inteligente” que ofrece mayor seguridad y eficiencia
energética. Otros dispositivos personales de la IoT —entre ellos los dispositivos portátiles para monitorear
y gestionar la actividad física y los dispositivos médicos con conexión a Internet— están transformando la
forma en que se ofrecen los servicios de salud. Esta tecnología promete ser beneficiosa para las personas
mayores o con discapacidad, mejorando sus niveles de independencia y calidad de vida a un costo razonable.
Los sistemas de la IoT como los vehículos conectados en red, los sistemas de tráfico inteligentes y los
sensores integrados en carreteras y puentes nos acercan más a la idea de “ciudades inteligentes”, que ayudan
a minimizar la congestión y el consumo de energía. La tecnología de la IoT ofrece la posibilidad de
transformar la agricultura, la industria y la producción y distribución de energía mediante el aumento de la
disponibilidad de información a lo largo de la cadena de valor de la producción por medio de sensores
conectados en red.
Algunos observadores ven a la IoT como un mundo “inteligente”, revolucionario y totalmente
interconectado; un mundo de progreso, eficiencia y oportunidades, con el potencial de añadir un valor
equivalente a miles de millones para la industria y la economía global. Otros advierten que la IoT representa
un mundo más oscuro, un mundo de vigilancia y violaciones a la privacidad en el cual los consumidores
estarán atrapados. Los titulares sobre ataques cibernéticos a automóviles conectados a Internet, las
preocupaciones con respecto a la vigilancia que surgen de las funciones de reconocimiento de voz de los
televisores “inteligentes” y los temores con respecto a la privacidad que se derivan del posible uso indebido
de los datos de la IoT han captado la atención del público. Sumado a la gran cantidad de información que
publican los medios populares y el marketing, este debate sobre “promesas contra peligros” puede hacer que
la IoT sea un tema complejo y difícil de entender. [2]
B. Historia del Internet de las Cosas (IoT)
El internet de las cosas tiene sus inicios en el año de 1991, con Mark Weiser, quien escribió un artículo
para la revista Scientific American titulado “El computador del siglo XXI”, donde se destaca una imagen
que muestra en aquel entonces el desarrollo de ya tres dispositivos que posteriormente se tecnificarían para
ser de uso mucho más común, como lo son una pantalla o televisor gigante, una tableta monocromática- en
verde y negro- y un monitor individual observado por Weiser, dicha fotografía sería el inicio de lo que hoy
en día se conoce como el internet de las cosas, sin embargo en aquel tiempo no era considerado de esa
manera.
Sin embargo la idea de Weiser no era la creación de este nuevo concepto, sino más bien era la predicción
que se utilizaría en el próximo siglo en las oficinas o puestos de trabajo del futuro dentro de las
organizaciones, con el fin de economizar recursos y emplear los nuevos de una manera mucho más eficiente,
sobre todo considerando que este grupo de científicos de Xerox en Palo Alto en 1991 ya eran responsables
de los tabs (reemplazo al post-it) y de los pads (reemplazando a una libreta u hoja de papel) para uso
comunitario. Mark Weiser bautizó a la relación entre el entorno humano y las máquinas como computación
ubicua que representaba un concepto completamente diferente a la inteligencia artificial o a la realidad

27
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

virtual, ya que lo que se quería conceptualizar a través del término era la incrustación de la computación en
el diario vivir de las personas. Weiser murió en 1999 sin tener conciencia del aporte que realizó dentro del
campo del internet, ya que gracias a dicha fotografía y a la consolidación de sus invenciones en el mismo
año Kevin Ashton, investigador del Instituto Tecnológico de Massachusetts, acuña por primera vez y de
manera formal el término de internet de las cosas, utilizándolo dentro del contexto del manejo de la cadena
de suministros. [3]
C. Las tres capas básicas en el Internet de las Cosas.
Hasta ahora hemos visto cómo el fenómeno del Internet de las Cosas ha irrumpido a nuestro alrededor,
dando vida a objetos cotidianos que se interconectan gracias a Internet y constituyen fuentes inagotables de
información. Para entender el Internet de las Cosas desde un punto de vista más técnico es necesario
comprender las tres capas que lo hacen realidad a día de hoy.
La primera capa es el hardware. Más de medio siglo después de los pesados ordenadores que ocupaban
salas enteras, los componentes son cada vez más pequeños, lo que permite desarrollar ordenadores más
potentes y rápidos que sus predecesores. Esta capa física ocupa menos espacio, lo que facilita que se pueda
conectar prácticamente cualquier cosa, desde cualquier sitio, en cualquier momento. Asistimos al fenómeno
de la miniaturización.
La segunda capa es la infraestructura, o más bien sus limitaciones. Si miles de millones de nuevos
dispositivos se conectan al IoT, ¿cómo lo soportará la tecnología actual? ¿Se va a convertir el espectro de
Internet en el combustible del siglo xxi? Se hace necesario afrontar el problema del espectro como un recurso
limitado.
La tercera y última capa la forman las aplicaciones y los servicios que ponen en uso la gran cantidad de
información creada a partir del IoT y donde se encuentra el mayor potencial de creación de valor. Estas
aplicaciones conllevan la creación de nuevos modelos de negocio e iniciativas empresariales muy
interesantes desde el punto de vista de la innovación. Estas tres capas –la miniaturización del hardware, las
necesidades de infraestructura y el desarrollo de software innovador– son fundamentales para entender la
expansión del Internet de las Cosas en el terreno de las tecnologías de la información y la comunicación. [4]
D. ¿Por qué es importante el Internet de las Cosas - IoT?
Antes de conocer la importancia es necesario comprender las diferencias que existen entre Internet y
World Wide Web (o web), términos que suelen utilizarse indistintamente. Internet es la capa física o la red
compuesta de switches, routers y otros equipos. Su función principal es transportar información de un punto
a otro, de manera veloz, confiable y segura. La web, por otro lado, es una capa de aplicaciones que opera
sobre la superficie de Internet. Su rol principal es proporcionar una interfaz que permite utilizar la
información que fluye a través de Internet.
Internet ha seguido una ruta sostenida de desarrollo y mejora, pero podría decirse que no ha cambiado
mucho. Básicamente sigue conservando el propósito para el que fue diseñada durante la era de ARPANET.
Por ejemplo, en los comienzos había varios protocolos de comunicación como AppleTalk, Token Ring e IP.
En la actualidad, Internet está estandarizada en gran medida en IP. En este contexto, IoT adquiere gran
importancia porque se trata de la primera evolución real de Internet (un salto que conducirá a aplicaciones
revolucionarias con el potencial de mejorar drásticamente la manera en que las personas viven, aprenden,
trabajan y se entretienen). IoT ya ha logrado que Internet sea sensorial (temperatura, presión, vibración, luz,
humedad, estrés), lo que nos permite ser más proactivos y menos reactivos. Además, Internet se expande
hacia lugares que, hasta el momento, eran inalcanzables. Los pacientes ingieren dispositivos de Internet que
ingresan a su cuerpo para ayudar a los médicos a diagnosticar y determinar las causas de ciertas
enfermedades. Es posible colocar sensores pequeñísimos en plantas, animales y fenómenos geológicos y
conectarlos a Internet. [5]
E. ¿Por qué el IoT es la base de las ciudades inteligentes?
Una ciudad inteligente no significa que todo sea automático y que los robots tomen el control dejando a
los ciudadanos sin empleo y a las empresas sin trabajo.
El Internet de las Cosas (IoT por sus siglas en inglés) las cuales utilizan el cómputo en la nube donde se
reciben, analizan y gestiona la información en tiempo real que ayuda a municipios, las empresas y los
ciudadanos a tomar mejores decisiones que mejoran la calidad de vida.
Las personas se convierten en ciudadanos conectados y activos que utilizan sus smartphones o
dispositivos móviles para tener información sobre diversos servicios como horarios de transporte,
recolección de basura, congestionamiento vial.
Si la vida tradicional funciona ¿por qué necesitamos ciudades inteligentes? Un estudio indica que 54% de
las personas de todo el mundo vive en ciudades cifra que alcanzará 66% para 2050. Junto con el crecimiento
general de la población, la urbanización agregará otros 2 mil 500 millones de personas a las ciudades en las
próximas tres décadas.

28
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

En este mundo conectado que busca mejorar la calidad de vida de las personas, las empresas
especializadas en diversos rubros de negocio deben digitalizarse y apoyar a las ciudades inteligentes en su
proceso de transformación.
Por ejemplo, existen empresas expertas en el desarrollo e implementación de cámaras de seguridad,
dichas cámaras pueden ser instaladas en las ciudades para prevenir delitos, en apoyo a emergencias y para
conocer el tránsito vial. [6]
F. Industrias en las que el uso de IoT es una realidad
a) Transporte
Este rubro lo conforman los automóviles conectados, vehículos autónomos, el transporte inteligente y
los sistemas de logística. Se trata de soluciones creadas para reducir el tráfico y disminuir la contaminación,
automatizar el control y gestión de la mercancía transportada o, bien, gestionar una flota de vehículos y tener
a mano datos como fecha de mantenimiento del auto, ahorro de gasolina o el estado del conductor. Todo en
tiempo real.
b) Fábricas digitales
El IoT incrementa la producción, automatiza los procesos y, consecuentemente, modifica el modelo de
negocio de multitud de sectores industriales, pero parece que el de la industria manufacturera es el que se ve
más afectado de forma inmediata, pues ya usan soluciones del IoT para el seguimiento de sus productos,
consolidar sus salas de control y aumentar su funcionalidad de análisis, a través del mantenimiento
predictivo. No obstante, se espera que en breve implementen robots autónomos y herramientas de realidad
aumentada.
c) Energía
Mediante IoT, los innumerables dispositivos de la red eléctrica pueden compartir información para
distribuir y manejar la energía en forma más eficiente. Las compañías de petróleo y gas, así como las
empresas de servicio eléctrico han adoptado modelos de negocios digitales que conectan máquinas, activos
y personas dentro del negocio. De manera que se vincula la producción con la demanda y de este modo
brindan un servicio más eficaz y confiable.
d) Edificios inteligentes
Este concepto hace referencia a una construcción o inmueble que hace uso de toda clase de tecnologías
con el fin de automatizar sus sistemas para obtener resultados significativos en el ahorro de energía, mejor
administración y mantenimiento.
e) Atención médica
Desde wearables de uso clínico hasta tablets para servicios de emergencia o equipos quirúrgicos
sofisticados, el IoT llegó para transformar los servicios de salud. Así que, a partir del 2020 su arribo traerá
beneficios que van desde mejorar la calidad de atención del paciente hasta salvar vidas. [7]
MATERIALES Y METODOS
La investigación se realizó bajo el método mixto (cuantitativo-cualitativo), lo cual permitió obtener
información sobre el desarrollo de proyectos basados en IoT de algunas instituciones de educación a nivel
nacional; también se utilizó la investigación documental para conocer sobre Internet de las Cosas (IoT) según
diferentes autores; además proyectos a nivel nacional e internacional.
G. Materiales
Para poder llevar a cabo la investigación bajo el método mixto se diseñaron diferentes instrumentos que
permitió la recolección de datos; se consultaron libros virtuales, libros de congresos, revistas, artículos
sobre resultados de investigaciones, blogs y sitios web, todos referentes al tema de Internet de las Cosas
(IoT).
RESULTADOS
Los resultados se obtuvieron de 12 instituciones participantes todas del sector de educación,
pertenecientes a la zona central y oriental de El Salvador.
Las instituciones participantes una es de educación básica el Centro Escolar Meardi, cinco de educación
media: Instituto Nacional Francisco Gavidia, Instituto Nacional de La Unión, Instituto Nacional Isidro
Menéndez, Instituto Nacional Dr. Sarbelio Navarrete y Colegio Corazón de Jesús y de María y seis de
educación superior: Escuela Especializada en Ingeniería ITCA-FEPADE regional La Unión y Santa Tecla,
Universidad Gerardo Barrios San Miguel y Usulután, Universidad Francisco Gavidia y Universidad
Centroamericana José Simeón Cañas.

29
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

H. Instituciones que desarrolan proyectos IoT.


En el fig. 1 se visualiza, el 75% de las instituciones encuestadas respondieron que si se desarrollan o han
desarrollado proyectos IoT mientras que el 25% de las instituciones encuestadas no está desarrollando ni ha
desarrollado proyecto IoT.

Fig. 1 Instituciones que desarrollan proyectos basados en tecnología IoT

I. Tecnologías más utilizadas para el desarrollo de proyectos IoT.


En el fig. 2, se representa las placas IoT más utilizadas por las instituciones participantes para el
desarrollo de proyectos, teniendo mayor inclinación el uso de Arduino Uno 75.0%; seguido del ordenador
de placa reducida Arduino Mega 58.3%; Rasperry Pi 50.0%; Raspberry Pi un 25.0%, menos utilizados con
un 8.3% Lego, Photon, Arduino Yun, Raspberry Pi III, Arduino Nano y Arduino Mega.

Fig. 2 Tecnologías más utilizadas en los proyectos IoT

J. Criterios utilizados para la selección de tecnología


En la fig. 3 se visualiza algunos de los criterios de mayor interés para la adquisición de tecnología basada
en IoT, las instituciones participantes opinaron lo siguiente 83.0% considera al costo como criterio de
prioridad; 50.0% el lenguaje de programación soportados; 25% seguridad y consumo de energía; 16.7%
volumen de almacenamiento de datos, tamaño y protocolos de transferencia de datos soportados y el criterio
de menor importancia consumo de ancha banda con un 8.3%.

Fig. 3 Criterios de mayor relevancia para la obtención de Tecnologías

30
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

K. Son almaceados los datos obtenidos a través de proyectos IoT-


En la fig. 4 se presenta de forma gráfica, los proyectos IoT que son desarrollados por las instituciones
participantes en el estudio el 50% guarda la información para poder ser utilizada para su análisis o toma de
decisiones, realización de nuevas ideas a partir de la información obtenida; mientras que el otro 50% no
almacena la información para un posterior uso.

Fig. 4 Representación de las instituciones que almacenan los datos.

L. ¿Dónde son almacenados los datos?


En la fig. 5, se representa el 66.7% de las instituciones participantes almacenan la información en
servidores locales; un 33.3% almacenan la información en el mismo dispositivo IoT limitándose a la
cantidad de espacio y tiempo de vida del mismo, arriesgando los datos a una pérdida por fallas de hardware
o de software y una minoría del 25.0% almacena los datos en servidores remotos.

Fig. 5 Representación de lugar donde almacenan los datos.

M. ¿Se utiliza algún software para la administración de datos o análisis de los datos que se genera en los
proyectos IoT?
En la fig. 6 se visualiza de las instituciones participantes el 58.3% si utilizan un software para análisis
y administración de los datos; mientras que un 41.7% no utiliza ninguno.

Fig. 6 Representación del uso de Software.

31
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

N. Proyectos basados en IoT por instituciones de Educación Superior de El Salvador.


a) Universidad Gerardo Barrios – UGB
En el 2012 a partir de una problemática de control de Acceso a las aulas de la Universidad Gerardo
Barrios (UGB), sede central San Miguel, comienza con un proyecto de investigación para determinar la
factibilidad de creación de un prototipo basado en dispositivos IoT para acceso automatizado a los espacios
físicos de la universidad, siendo los principales dispositivos estudiados: Arduino y Rasberry Pi y dando como
resultado un prototipo capaz de leer códigos de los empleados y horarios para permitir el acceso a salones de
clases a través del carnet. [8]

En el 2014 la segunda sede de la UGB conocido como Centro Regional de Usulután (CRU), el ingeniero
e investigador Marvin Parada, desarrolló el Sistema de Riego Automatizado (SRAU) con el objetivo de
contribuir al ahorro de un recurso natural (h2o), por medio de la aplicación correcta sobre la cantidad de agua
para el riego de cultivos.
El proyecto desarrolló, un sistema de riego automatizado en tiempo real de bajo costo, para determinar
el momento oportuno y cantidad de riego que pueden necesitar en determinado momento un jardín o una
plantación de cultivos, monitoreado el jardín por medio de sensores, los cuales indican cual es el momento
preciso en el que la planta necesita ser regada. [9]

b) Universidad Centroamericana Jose Simeon Cañas – UCA


En el 2015 la Universidad José Simeón Cañas (UCA) de El Salvador, desarrollaron el proyecto
UVMaforo, el cual es un sistema de monitoreo del índice de radiación ultravioleta, emitida por el sol. El
UVmaforo nace a partir de la idea del Solmáforo, muy popular en países de Latinoamérica.
El objetivo es concientizar a la población de los efectos en su salud al estar expuestos a radiación
ultravioleta provenientes del sol; también incentivar a la población a que reduzca el tiempo de exposición a
las radiaciones solares puede disminuir los efectos nocivos para la salud y reducir significativamente los
costos de atención de salud en los que incurre el país.
El UVmaforo además de contar con un dispositivo electrónico de medición adaptado a las condiciones
de El Salvador, también incluye la creación de un sistema web y una aplicación móvil para Android. Esto
con el fin de lograr un mayor alcance dentro de la población y generar historiales sobre el índice UV en
El Salvador; por lo tanto, la investigación se centra en la utilización de tecnologías de la información y
comunicaciones (TIC) en la búsqueda de lograr una ciudad sostenible o inteligente. [10]

c) Instituto Tecnologico Centroamericano – ITCA


En el 2017 el equipo de investigación del ITCA, desarrollaron el Sistema Digital para el Control Central
del Sistema Eléctrico utilizando Tecnología Arduino Y Android: Aplicación en Centro Regional San Miguel,
propósito la búsqueda y la aplicación de la tecnología para desarrollar un sistema digital que permitiera el
control central de los circuitos eléctricos de forma remota e inalámbrica a un área específica, utilizando
dispositivos Arduino vía Wi-fi. Para lograr el control de los segmentos de la red se adecuaron las
instalaciones eléctricas existentes, se construyeron los circuitos de hardware con Arduino; se construyó la
interfaz gráfica de usuario para la comunicación y acceso a los segmentos de red vía web y a través de
dispositivos móviles; se elaboró una aplicación web para el control central y acceso a los circuitos de la red
eléctrica y se integró el nuevo sistema desarrollado a una aplicación informática existente para administrar
el uso de llaves de las aulas, laboratorios y talleres. [11]
En el 2018 el equipo de investigación del ITCA, trabajó sobre la implementación de un prototipo
electrónico e informático para el control y monitoreo de parámetros ambientales en una sala de equipo de
comunicaciones. El dispositivo obtenido es una herramienta tecnológica base, que puede implementarse en
diversas aplicaciones; como, por ejemplo: Estaciones meteorológicas (clima), cadena alimenticia,
verificación de temperatura ambiente de los alimentos en un refrigerador (salud), sistemas inteligentes en el
hogar (luces, aparatos, otros), medición del ritmo cardiaco de una persona (biomédica), deshidratadora de
frutas (control y monitoreo de temperatura/humedad), etc. Todo esto haciendo las debidas modificaciones a
los tipos de sensores a utilizar que debe estar acorde al área de aplicación entre otros. [12]

d) Universidad Tecnológica de El Salvador – UTEC


En el año 2016 el equipo de investigación de la UTEC, diseñaron un sistema embebido electrónico
basado en el microcontrolador ATmega32u4, usando una plataforma de desarrollo Arduino modelo YUN;
junto con esta se utilizó un sensor que mide el voltaje generado por el panel solar. El resultado de esta
investigación fue el prototipo electrónico junto con la programación en la nube, que permite que el panel
solar publique automáticamente su voltaje en un sitio web, o nube, para ser accesible desde cualquier
dispositivo con conexión a internet. [13]

32
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

O. Proyectos desarrollados bajo tecnología IoT a nivel internacional


a) Brasil
El proyecto consiste en una forma más inteligente para el monitoreo de niños con obesidad. El proyecto
“Internet de las Cosas Aplicado a la Pediatría” (IoTAPED) desarrolla una plataforma para el monitoreo de
pacientes, tanto de forma remota como en unidades de salud.
El objetivo es proporcionar a los profesionales conocimientos técnicos y estratégicos para la toma de
decisiones inteligentes, basada en evidencias de tratamientos y políticas de salud realizadas y conducidas en
tiempo real.
Según la arquitectura propuesta, los datos de pacientes serán recogidos por sensores y enviados a la
plataforma IoTAPED por una aplicación segura. Estos datos pueden contribuir a la identificación temprana
de factores de riesgo relacionados con la obesidad, generando alertas que pueden ser analizadas por los
equipos de salud para la toma de decisión.
La iniciativa recibe el apoyo de socios europeos y considera los resultados generados por otro proyecto,
“Solución Inteligente de Tratamiento de la Obesidad Infantil a través del Potencial del Internet de las Cosas”
(en inglés, OCARIoT), seleccionado en el contexto de la 4ª Llamada Coordenada Brasil-Unión Europea en
Tecnologías de la Información y Comunicación, lanzada por la Red Nacional de Enseñanza e Investigación
(RNP), de Brasil. [14]

b) Hong Kong
Creación de cárceles inteligentes (Smart Prison), más allá de que se cuestione el sistema penitenciario
tradicional como poco eficaz para rehabilitar y muy propicio para cultivar el delito y la infracción de la ley, la
estancia de presos en una prisión exige a las autoridades tomar una serie de medidas tendientes a garantizar
la seguridad de los presos, evitar el tráfico y consumo de drogas, riñas, robos y desmanes e impedir fugas y
ataques a custodios y personal penitenciario.
Las autoridades de Hong Kong han ideado toda una estrategia basada en el uso de Tecnología Inteligente
–IoT y IA– para lograr estos objetivos básicos; se trata de probar en tres cárceles estos métodos carcelarios
innovadores y de ponerlos en práctica en todos los centros penitenciarios del país más poblado del mundo.
Uno de los principales dispositivos con que cuenta el proyecto de cárcel inteligente es un brazalete,
parecido a un wearable deportivo o médico, que tiene que usar cada uno de los reclusos y que cumple con
dos funciones básicas: a) registrar en tiempo real la salud de quien usa el brazalete, es decir, llevar a cabo
una biometría constante cuyos datos son enviados a un centro de cómputo información sobre el estado de
salud del preso, dando aviso inmediato de cualquier irregularidad, incluyendo peleas que provocan heridas
o hasta muerte e intentos de suicidio; b) detectar en tiempo real el lugar donde se encuentra el recluso, que
en caso de encontrarse en un lugar inadecuado o prohibido se alerta al centro de control, quien avisará a los
custodios para que actúen en consecuencia.
Un conjunto de videocámaras colocadas en sitios estratégicos, que incluyen espacios comunes y
privados, complementan la labor que desempeña el brazalete, es decir, monitorear todas y cada una de las
acciones del recluso, tanto aquellas que realiza al lado de otros presos, por ejemplo, en el patio, el comedor
y zonas de trabajo, como las más íntimas como dormir, vestirse o ir al baño a satisfacer sus necesidades; el
rastreo de estas acciones incluye el análisis inteligente de lo filmado por las cámaras, lo que permite detectar
conductas igualmente irregulares como peleas, motines, enfrentamientos entre grupos, que al suceder alertan
al centro de control, que al enterarse estará en condiciones de actuar de manera conveniente ante cualquier
eventualidad.
Otro recurso proveniente de IA para cárceles inteligentes son los llamados brazos robóticos, que están
destinados a efectuar un tipo trabajo que a los empleados les resulta bastante indeseable ejecutar, que consiste
en evitar que los reclusos, en especial los de recién ingreso, metan de contrabando drogas y otros objetos
prohibidos ingiriéndolos, mediante un robot en forma de brazo que detecta la droga en los deshechos de los
reclusos.

c) Estados Unidos
El registro de voces (voice print) que consiste en grabar conversaciones telefónicas de los reclusos para
almacenarlas y conformar una suerte de banco de voces donde es posible identificar voces de delincuentes
internos o externos.
Otra tecnología es la llamada “etiqueta personalizada” (RFDI tags o implants), que consiste en un
pequeño chip que se coloca debajo de la piel de algunos reclusos –una especie de GPS para humanos– a
quienes se libera de la cárcel pero sin perderlos ni de vista ni de control, monitoreando en tiempo real el
lugar donde se encuentran; el objetivo de esta tecnología es intentar resolver el problema de la
sobrepoblación de las cárceles; actualmente, más que injertar chips se piensa en usar brazaletes. [15]

33
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

d) México
La empresa AgroTech, especializada en invernaderos, que gracias a IoT y sensores, lleva a cabo
mediciones y variables indispensables para su operación, como la temperatura, radiación, pH, humedad,
entre otros. El sistema en la nube capta las alertas de los sensores y activa automáticamente el sistema de
riego en caso de altas temperaturas.
Fleet Management, la compañía refresquera Arca Continental ha creado modelos predictivos de
demanda al monitorear las cargas necesarias para cada viaje de reabastecimiento, con base en la demanda
en tiempo real y tomando en cuenta factores como el clima o eventos deportivos. Además, pueden prevenir
factores como la pérdida de diesel o el desgaste de las llantas en las unidades, monitorear la carga e incluso
al conductor. [16]
CONCLUSIONES
Las instituciones de educación de El Salvador tienen una fuerte inclinación por el área de electrónica e
IoT, se evidencia través de los proyectos desarrollados y posteriormente se presentan en diferentes concursos,
eventos o ferias que son organizadas en su mayoría por organizaciones e instituciones (SVNet, Asociación
Conexión al Desarrollo de El Salvador, Hackerspace San Salvador, Open Hardware SV, Universidad
Tecnológica de El Salvador, y Asociación de Estudiantes de Mecatrónica de la Universidad Don Bosco);
uno de los ejemplos de mayor importancia es el día de Internet de las Cosas una celebración a nivel mundial,
en el cual se presenten ideas y aplicaciones que apoyan a la resolución de una problemática, acompañados
de ponencias sobre temáticas en la misma área. Lo anterior se considera una oportunidad para la educación
en El Salvador la cual es orientada al crecimiento personal, profesional de los ciudadanos/as y al aporte para
a la transformación digital del país.
Los proyectos basados en IoT, desarrollados a través de las investigaciones de las instituciones de
educación superior de El Salvador apuestan al futuro de convertir diferentes entornos eficientes y sostenibles
hacia una transformación tecnológica en el cual el mayor beneficiario es el ciudadano/a; a la vez se considera
que usar la tecnología de Internet puede abrir nuevos modelos de negocios, industrias nuevas y para los/as
ingenieros, técnicos/as, diseñadores/as y emprendedores/as que estudien y analicen el potencial de la misma;
por lo cual es de suma importancia involucrar en cada una de las áreas (salud, medio ambiente, educación,
seguridad, energía, entre otras) el valor de la transformación digital, a través de la educación desde todos los
niveles para que los niños/as y jóvenes, reconozcan las problemáticas y soluciones a través de las TIC; el
gobierno debe tratar de involucrar la participación ciudadana en cada uno de los proyectos que se desarrolla
y generar la oportunidad de aportar a través de propuestas que al ser analizadas puedan solventar algún tipo
de problemática.
IoT es una tendencia transversal que cambiará la manera de vivir, trabajar, entretenerse y viajar, así como
la forma en que los gobiernos y las empresas interactúan con el mundo. En 2020 puede llegar a haber 800.000
vacantes sin cubrir para puestos TIC y la falta de habilidades y conocimientos puede dificultar el desarrollo
de la transformación digital [17]
AGRADECIMIENTOS
La investigación fue realizada bajo la supervisión de la Unidad de Investigación por el Coordinador Lic.
Osmel Sánchez y Decana Licda. Azucena Guevara de la Facultad de Ciencia y Tecnología, a quienes les
expresamos nuestros más profundos agradecimientos, por su apoyo durante todo el proceso de las etapas de
la investigación del proyecto: “Valorar la factibilidad de un centro de datos para la conexión de dispositivos
IoT.”, del cual consideramos que puede ser un insumo para nuevos estudios enfocados a Smart Communitie,
Smart City, Smart Village, etc.; a la vez es la fuente de cual se obtuvo el artículo presentado en COMPDES
2019.
A la vez se agradece en primera mano a la Universidad Gerardo Barrios por creer en el proyecto para su
aprobación y financiamiento ya que sin ello no se hubiese podido llevar a cabo, la disposición de recursos
materiales y humanos necesarios para cada paso que se ejecutaba y poder cumplir con el objetivo planteado
al inicio de la investigación.
Como equipo de investigación de la Facultad de Ciencia y Tecnología de la Universidad Gerardo Barrios
sede central, el cual está conformado por mujeres docentes MIW. Ing. Gisela Espinoza y MIW. Inga. Marlene
Navarro, estamos sumamente orgullosas del resultado final y no solo por presentarlo si no porque sabemos
que es un aporte al conocimiento científico y sobre todo a la sociedad en general.

34
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

REFERENCIAS BIBLIOGRÁFICAS
[1] Moisés Barrio Andrés, “Internet de las Cosas”,
[Link] 2018
[2] Internet Society, “La Internet de las Cosas: Una breve reseña”, [Link]
content/uploads/2017/09/[Link], 2015.
[3] MSc. Cecibel del Rocío Espinoza Carrión, MSc. María José Pérez Espinoza y MSc. María Beatriz Peralta Mocha, “El Internet
de las cosas: Antecedentes, conceptualización y riesgos”,
[Link] 2017.
[4] Fundación de la innovación, “El Internet de las Cosas, en un mundo de conectado de objetos inteligentes”,
[Link] 2011.
[5] Cisco, “Internet de las cosas Cómo la próxima evolución de Internet lo cambia todo”,
[Link] 2011
[6] Carla Martinez, “¿Por qué el IoT es la base de las ciudades inteligentes?”, [Link]
base-de-las-ciudades-inteligentes/, 2019
[7] Octavio Castillo, “Estas son las industrias más afines al uso del IoT”,[Link]
afines-al-uso-del-iot/, 2019
[8] William Ventura, Sandra Zuniga, Kriscia Zapata, Osmaro Parada, Pedro Villalta, Luis Navarro, “Prototipo para el control de
acceso autorizado sin llaves de las aulas de la Universidad Gerardo Barrios”, [Link]
proyeccion/investigacion/[Link], 2015
[9] Osmaro Parada, “Sistema de Riego Automatizado”, [Link]
proyeccion/investigacion/[Link], 2014
[10] Carlos Mauricio Pohl, “Monitoreo de los niveles UV en El Salvador ", El Salvador Magazine Ciencia y Tecnología, page 22,
ISSN 2226-5783, II vol. 22/N° 32, 2017
[11] Gaitan Quintanilla Roberto Carlos, Osorio Gómez Fermín, “Sistema digital para el control central del sistema eléctrico utilizando
tecnología Arduino y Android”, [Link] 2017
[12] Gámez López, Manuel de Jesús, “Prototipo electrónico de control y monitoreo de parámetros ambientales implementando
Internet de las Cosas”, [Link] 2018
[13] Omar Otoniel Flores Cortez, German Antonio Rosa Castellanos, “Internet de las cosas: Diseño e implementación de prototipo
electrónico para el monitoreo vía internet de sistemas de generación fotovoltaico”,
[Link] 2016
[14] Gobierno Brasil, “Solución en IoT puede ayudar en el tratamiento de niños obesos”,
[Link]
de-ninos-obesos, 2019
[15] Jorge García, “Cárceles inteligentes, el IoT podría transformar hasta el más mínimo detalle”,
[Link] 2019
[16] Edson Uglande, “México lidera proyectos de IoT en América Latina”, [Link]
iot-en-america-latina-microsoft/, 2016
[17] COTEC, “Internet de las Cosas, análisis de la oferta educativa y la demanda empresarial en España”,
[Link] 2017

35
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Predecir el uso de red de dispositivos Cisco


Meraki utilizando Machine Learning
Efrén Antonio Jiménez Delgado
Tecnológico de Costa Rica, Costa Rica
efjimenez@[Link]

José Pablo Brenes Alfaro


Tecnológico de Costa Rica, Costa Rica
josepablo1997@[Link]

José Daniel Amador Salas


Tecnológico de Costa Rica, Costa Rica
jdamadorsalas@[Link]

Resumen — Este artículo describe un método de ciencia de datos para contribuir con una predicción apropiada
para un modelo de tráfico de red en dispositivos Cisco Meraki. La propuesta pretende encontrar un método de
serie de tiempo para predicción la cantidad de paquetes recibidos por minuto desde los diferentes dispositivos
conectados a un APN Cisco Meraki ubicado en el Tecnológico de Costa Rica. Se utilizarán modelos de predicción
de series de tiempo y se evaluara si el este modelo puede predecir el tráfico de red con una probabilidad
aceptable, con modelos AR, MA, ARMA y ARIMA.

Palabras clave; AR, MA; ARMA; ARIMA, series de tiempo, Cisco, Meraki

I. INTRODUCCIÓN
Con un rápido crecimiento en la tecnología de internet, el tráfico de red está aumentando rápidamente.
La ampliación del tráfico tiene una gran influencia en el rendimiento de una red total. Por lo tanto, la gestión
del tráfico es un tema importante de la gestión de la red. Existen muchos métodos para evaluar el rendimiento
de la red para que los usuarios puedan confiar en los resultados de la administración. Para lograr resultados
adecuados, también es importante analizar el tráfico. Analizar el tráfico de la red [1,2] es alertar al
administrador del sistema que prepara una invasión de la red y reacciona con un comportamiento adecuado
cuando el sistema está dispuesto a colapsarse. El seguimiento del tráfico consiste en recopilar e investigar
los paquetes transferidos. Esto proporciona información adicional al tomador de decisiones a través de los
resultados analizados. Esta información se proporciona con columnas tales como la cantidad de paquetes
enviados y recibidos, dispositivo y fecha. Para administrar el rendimiento de la red de manera eficiente, es
importante no solo analizar los tipos de tráfico sino también pronosticar la cantidad de tráfico. Predecir el
tráfico de red permite actuar correctamente antes de que ocurra la congestión.
En este documento, se mostrará que los modelos de series temporales se pueden usar para predecir el tráfico
de red. Para hacer esto, el modelo de serie de tiempo debe ser verificado antes de la predicción. La
satisfacción del modelo de serie de tiempo se verifica por el supuesto estacionario Si tiene estacionariedad o
no.
II. TRABAJOS RELATIVOS Y MODELOS DE SERIE DE TIEMPO
Hace muchas décadas, los estadísticos analizaron datos de series de tiempo sin tener en cuenta cómo la
"no estacionalidad" podría tener un efecto en sus análisis. Luego, George P. Box y Gwilym Jenkins
presentaron un famoso documento llamado "Análisis de series de tiempo [3]: pronóstico y control", en la
que mostraron que los datos no estacionarios podían hacerse estacionarios. De esta manera, podrían separar
una tendencia importante en un período de tiempo específico de un crecimiento o declive [4].
La fórmula para expresar modelos ARIMA "Fig. 1":

Figura 1. Fórmula modelos ARIMA

36
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

A. Modelos de series de tiempo


Una serie de tiempo es una secuencia de observaciones ordenadas en el tiempo (o espacio). Si se hacen
observaciones sobre algún fenómeno a lo largo del tiempo, es más sensible muestre los datos en el orden en
que surgieron, en particular porque las observaciones sucesivas probablemente serán interdependientes. Los
datos de series de tiempo analizados según la función se pueden convertir en un modelo mediante un método
de análisis [5,6].
B. Modelo auto regresivo (AR)
El enfoque auto regresivo se basa en la premisa de que cada observación en una serie de tiempo está
relacionada de manera consistente e identificable con una o más observaciones previas de la misma serie.
C. Modelo Media Móvil (MA)
El promedio móvil es una forma de promedio que se ha ajustado para permitir componentes cíclicos en
una serie de tiempo. La función de este modelo es suavizar las series de tiempo originales promediando un
subconjunto rodante de elementos de la serie original. Consiste en una selección arbitraria de observaciones
consecutivas. La media móvil proceso puede considerarse como la salida de un filtro lineal con una
transferencia, cuando se introduce un ruido.
D. Modelo Media Móvil Autorregresivo (ARMA)
El modelo está formado por dos partes, una parte autorregresiva (AR) y otra de media móvil (MA).
Combina ambas formas de predecir una serie de tiempo y, por lo tanto, en algunos casos ajusta de mejor
manera la predicción de la serie y es usado en una mayor cantidad de series por su combinación de técnicas
de predicción.
E. Modelo Autorregresivo Integrado de Media Móvil (ARIMA)
El modelo necesita identificar los coeficientes y número de regresiones que se utilizarán. Este modelo es
muy sensible a la precisión con que se determinen sus coeficientes. Utiliza variaciones y regresiones de datos
estadísticos con el fin de encontrar patrones para una predicción hacia el futuro.
III. METODOLOGÍA
La metodología para desarrollar este trabajo se basa en la utilización de modelos de serie de tiempo (AR,
MA, ARMA y ARIMA). A partir de datos obtenidos de los dispositivos de Cisco Meraki que se almacenan
en una base de datos PostgreSQL en la que se insertan dichos registros con una frecuencia de un minuto.
Como punto uno de este documento se describirán los datos y las estructura en las que se acumula el tráfico
de red captado, en el segundo punto se expondrá el modelo de ciencia de datos utilizado para predecir el
tráfico de red en los próximos minutos, como tercer punto se realizará la evaluación de los modelos utilizados
y se presentará cuál de estos presenta mejor rendimiento en el pronóstico [7,6 ,8].
IV. DESCRIPCIÓN DE LOS DATOS
Para el consumo de los datos obtenidos de los dispositivos Cisco Meraki se está utilizando el API REST
“The Cisco Meraki Dashboard API” que provee la compañía utilizando las credenciales en la compra de la
licencia. En la "Fig. 2" se observa el sitio web con los recursos necesarios para el consumo de los datos del
dispositivo. En la "Fig. 3" se puede visualizar que los terminales Cisco Meraki proveen un sitio web donde
con reportes en tiempo real datos durante un mes.

Figura 2. Documentación Cisco Meraki Dashboard API

37
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 3. Documentación Cisco Meraki Dashboard API

Como base de datos se está utilizando una instancia PostgreSQL para almacenar la gran cantidad de datos
que se produce cada minuto. Por cada cliente conectado al dispositivo Meraki se genera un registro, por lo
cual la cantidad de información manejada puede ser de un tamaño importante. En la "Fig. 4" se muestra el
modelo relacional que almacena los datos obtenidos del dispositivo.

Figura 4. Documentación Cisco Meraki Dashboard API

Se diseño una arquitectura para soporta en tiempo real los datos recibidos de los dispositivos Meraki, en la
cual se utiliza diferentes tecnologías para comunicar el dispositivo hasta la instancia de dase de datos. Como
primer paso se obtiene los datos del API REST del sitio de Cisco, como segundo paso se utiliza un servicio
programado en el framework [Link] para consumir estos datos y almacenarlos en la base de datos de
PostgreSQL. En la "Fig. 4" se muestra el diagrama de la obtención y almacenamiento de los datos.

Petición al API REST de nueva información cada un minuto


Figura 5. Diagrama de obtención de datos

38
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. MODELO DE CIENCIA DE DATOS


Una serie temporal o cronológica es una secuencia de datos, observaciones o valores, medidos en
determinados momentos y ordenados cronológicamente. Los datos pueden estar espaciados a intervalos
iguales o desiguales. Uno de los objetivos es comparar diferentes modelos correlacionados, es decir, para
construir diferentes modelos de tráfico basados en diferentes series de tiempo y analizar cuál es el mejor para
estimar el tráfico del Wi-Fi capturado. Se desarrollarán modelos de tráfico: (1) Modelo AR (Regresivo
automático), (2) Modelo MA (media móvil), (3) Modelo ARMA (media móvil auto-regresiva) y (4) Modelo
ARIMA (media móvil integrada auto-regresiva). Cabe mencionar que los tres primeros modelos
correlacionados implican que la serie debe ser estacionaria, mientras que en los cuatro modelos no hay
necesidad de estacionariedad en la serie temporal.
Los datos que se va a utilizar son los que se muestran en la "Fig. 6" que se describe de la siguiente manera
• id_read: número de lectura.
• id_client: número de cliente.
• rev: bits recibidos.
• reading_data: fecha en la que se capturo los datos.

Figura 6. Diagrama de obtención de datos

El modelo que se genera utiliza una serie de tiempo que contiene 174 observaciones en una periodicidad de
un minuto de distancia por observación "Fig. 7". En la Fig. 8" se muestra que la serie de tiempo tiene
estacionalidad en la prueba Dickey-Fuller.

Figura 7. Diagrama de obtención de datos

39
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 8. La serie de tiempo contiene estacionalidad

El primer modelo que se utilizara es AR "Fig. 9”:

Figura 9. Modelo AR

El segundo modelo que se utilizara es MA "Fig. 10”:

Figura 10. Modelo MA

El tercer modelo que se utilizara es ARMA "Fig. 11”:

Figura 11. Modelo ARMA

El cuarto modelo que se utilizara es ARIMA "Fig. 12”:

Figura 12. Modelo ARIMA

Como se puede observar en los distritos modelos desarrollados y utilizando la medida de precisión del AIC,
es una medida de la calidad relativa de un modelo estadístico, para un conjunto dado de datos. Como tal, el
AIC proporciona un medio para la selección de un modelo. El AIC maneja un trade-off entre la bondad de
ajuste del modelo y la complejidad del modelo. Se basa en la entropía de información: se ofrece una
estimación relativa de la información perdida cuando se utiliza un modelo determinado para representar el
proceso que genera los datos. [9,10].

40
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

El modelo que provee el AIC más bajo es el ARIMA utilizando como parámetros de auto regresión igual a
uno, integridad igual a uno y el promedio móvil igual a uno.
VI. EVALUACIÓN
En la "Tabla. 1” se muestra los valores obtenidos en el AIC en cada uno de los modelos generados. El
modelo de serie de tiempo AR y MA proveen una marca de AIC de 6556, lo cual es aceptable, mientras que
el valor AIC del modelo ARMA es el peor con un valor de 6633. El modelo que provee el mejor número de
AIC es el ARIMA con 6522.

TABLA I EVALUACIÓN DE LOS MODELOS POR AIC

Tabla
Modelo
Valor AIC Aceptable No Aceptable
AR 6556 X

MA 6556 X

ARMA 6633 X

ARIMA 6522 X

Generado el modelo ARIMA (1,1,1) como el modelado de serie de tiempo, se realizó una prueba con la
predicción del tráfico de red en los dispositivos Cisco–Meraki de los próximos diez minutos como se muestra
en la "Fig. 13”:

Figura 13. Modelo ARIMA

En la "Fig. 13” se muestra en una gráfica la predicción de consumo de red de los dispositivos Cisco–Meraki.
Se visualiza un rango de confianza entre ochenta y noventa y cinco por ciento.

Figura 14. Grafica de la predicción

41
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VII. CONCLUSIONES
Este documento de investigación presentó una idea innovadora y un enfoque para apoyar a las
comunidades de investigación de redes especialmente profesionales de telemática. Se demostró que los
modelos de series de tiempo tienen un uso extenso en la predicción de datos y está ampliamente descrita en
la literatura. Estos modelos de han demostrado ser efectivos y confiables, con altos valores de aceptividad
en las predicciones relacionado al tráfico de red.
VIII. TRABAJOS FUTUROS
En los próximos trabajos de investigación se utilizarán otros modelos de series de tiempo para predecir
descritos en la literatura. Con el fin de evaluar nuevos modelos y nuevas líneas de investigación utilizando
como base otros nuevos trabajos científicos en serie de tiempo.
IX. REFERENCIAS BIBLIOGRÁFICAS
[1] C. A. H. Suarez, O. S. Parra, and F. J. Puente, “A proposal based on timeseries to predict traffic values inside a wi-fi data
network,” in Proceedings of the 7th International Conference on Advances in Mobile Computing and Multimedia, ser. MoM M
’09. New York, NY, USA: ACM, 2009, pp. 564–568
[2] J. Yao, S. S. Kanhere, and M. Hassan, “An empirical study of band width predictability in mobile computing,” inProceedings
of the Third ACM Inter-national Workshop on Wireless Network Testbeds, Experimental Evaluation and Characterization, ser.
WiN TECH ’08. New York, NY, USA: ACM,2008, pp. 11–18.
[3] S. Jung, C. Kim, and Y. Chung, “A prediction method of network traffic using time series models,” in Computational Science
and Its Applications -ICCSA 2006, M. Gavrilova, O. Gervasi, V. Kumar, C. J. K. Tan, D. Taniar,A. Laganá, Y. Mun, and H.
Choo, Eds. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006, pp. 234–243.
[4] Y. Chen, F. Chen, Y. Ren, T. Wu, and Y. Yao, “Poster: Deept fp: Mobile time series data analytics-based traffic flow prediction,”
inProceedings of the23rd Annual International Conference on Mobile Computing and Networking, ser. Mobi Com ’17. New
York, NY, USA: ACM, 2017, pp. 537–539.1
[5] T. Yun, X. Jianyuan, Z. Mingli, and W. Liang, “Study of wind farm power output predicting model based on nonlinear time
series,” in 2011 International Conference on Electrical Machines and Systems, Aug 2011, pp. 1–4.
[6] R. Madan and P. Sarathi Mangipudi, “Predicting computer network traffic: A time series forecasting approach using dwt, arima
and rnn,” in2018 Eleventh International Conference on Contemporary Computing (IC3), Aug 2018, pp.1–5.
[7] A. Fazel, M. Saraee, and P. Shamsinejad, “Mining time series data: Case of predicting consumption patterns in steel industry,”
in The 2nd International Conference on Software Engineering and Data Mining, June 2010, pp. 501–505.
[8] Hongdong Wang, “Time series modeling and predicting for highway trans-port freight,” in2011 International Conference on
Remote Sensing, Environment and Transportation Engineering, June 2011, pp. 5603–5605.
[9] Xiangjun Gao, Qiliang Du, Lianfang Tian, Zongyuan Mao, and Yong Wang, “The data mining technique of time-series trending
structure series,” in 2006 th World Congress on Intelligent Control and Automation, vol. 2, June2006, pp. 6019–6023
[10] K. Nusratullah, S. A. Khan, A. Shah, and W. H. Butt, “Detecting changes in context using time series analysis of social network,”
in2015 SAI Intelligent Systems Conference (IntelliSys), Nov 2015, pp. 996–1001.

42
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Diseño de un prototipo de sistema de realidad virtual


inmersiva para el estudio de la anatomía humana.

Design of a prototype immersive virtual reality system


for the study of human anatomy.
Víctor López Castillo, Gabriel Rafael Lacayo Saballos
Universidad Nacional de Ingeniería
Managua, Nicaragua
castillolopez735@[Link], [Link]@[Link]

Resumen — La medicina es uno de los campos más importantes para las aplicaciones de realidad virtual. Este artículo presenta el diseño
y la construcción de un prototipo de bajo costo de un sistema de inmersión virtual para la carrera de estudiantes de primer año de
enfermería de la Universidad de ciencias médicas. Se desarrolló un prototipo que permite el estudio anatómico del cuerpo humano de una
manera inmersiva haciendo uso de la realidad virtual y el procesamiento de imágenes 3D. Este simulador permite a los médicos y
estudiantes de medicina desarrollar los conocimientos de la anatomía humana como si estuvieran en un laboratorio con un cuerpo humano
real.

Palabras clave; medicina; virtual; sistema; simulación.


Abstract — Medicine is one of the most important fields for virtual reality applications. This article presents the design and construction
of a low-cost prototype of a virtual immersion system for the first-year nursing student career of the University of Medical Sciences. A
prototype was developed that allows the anatomical study of the human body in an immersive way using virtual reality and 3D image
processing. This simulator allows physicians and medical students to develop knowledge of human anatomy as if they were in a laboratory
with a real human body.

Keywords; medicine; virtual ; system; simulation.

I. INTRODUCCIÓN
Este proyecto surgió de la necesidad de los estudiantes de enfermería de la Universidad de Ciencias Médicas (UCM) los cuales
necesitaban de una herramienta gráfica que les permitiera reforzar sus conocimientos de anatomía humana para obtener un aprendizaje
más significativo de los escenarios anatómicos que se encuentran en los procedimientos clínicos mínimamente invasivos.
Si analizamos y estudiamos las posibilidades en el uso de la tecnología de realidad virtual inmersiva en el campo de la educación,
sus aplicaciones son casi infinitas: la gran mayoría de los médicos deben adquirir su experiencia en los quirófanos, pero las
herramientas para mejorar sus habilidades pueden ser limitadas o poco accesibles.
Un entorno virtual de aprendizaje es lo que hace tiempo está desarrollando la universidad de Standford usando la Realidad Virtual
(RV) del cuerpo humano, esto ha permitido a sus estudiantes el estudio del cuerpo humano obteniendo respuestas a diferentes
estímulos, logrando que practicarán varias veces con esos modelos virtuales antes de entrar al quirófano. [1]
Los procesos de enseñanza-aprendizaje y la interacción social entre los estudiantes en la educación superior ya no solo tienen
lugar en espacios físicos y determinados por la universidad, como sucedía hasta hace unos pocos años. El espacio y el lugar en el que
el estudiante se encuentra no es un elemento determinante a la hora de realizar intercambios académicos o personales como parte del
proceso de enseñanza-aprendizaje; el contexto universitario actual es uno de los que se caracteriza por los principios de movilidad y
ubicuidad, que favorecen las infraestructuras tecnológicas para la conexión de dispositivos digitales como el Smartphone.
Según algunos estudios con 16 residentes quirúrgicos, aquellos que fueron entrenados utilizando técnicas de realidad virtual
realizaron operaciones un 29% más rápido que aquellos que usaron técnicas tradicionales, lo que nos muestra otro ejemplo del
potencial de la realidad virtual en este campo. [2]

43
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

II. HERRAMIENTAS DE DESARROLLO


A. Autodesk 3ds Max
Es un software que permite construir cualquier objeto en 3 dimensiones (3D), desde el más simple hasta el más complejo y
fantasioso objeto que se deseé, para después representarlo en formato de imágenes, o en formato de animación ya sea como una
secuencia de imágenes o en formato de video, además permite la creación de efectos visuales, creación de gráficos para video juegos.
Como Autodesk 3ds MAX es un software para la creación y pre-visualización de elementos visuales, es usado en diferentes
campos de la vida en general, entre los más comunes son: arquitectura para ver las edificaciones antes de construirlas sobre el terreno,
cine y televisión en la realización de comerciales donde se incluya personajes ficticios en entornes reales, en efectos especiales, con
la creación de efectos que sería imposible realizarlos en la vida real debido a su peligrosidad, modelos para video juegos, hoy en día
la mayor parte de los video juegos incluyen gráficas en 3 dimensiones, que son realizados en las diferentes softwares de diseño
tridimensional. [3]
En el ámbito de la medicina también se están desarrollando simuladores para la formación del personal de la salud usando la
modelación de imágenes en 3D. En ellos se pretende que los estudiantes pongan a prueba sus conocimientos y desarrollen sus
habilidades recreando situaciones concretas como es el estudio de la anatomía humano y/o una operación menor. [4].
B. Unity 3D

“Unity 3D, es un motor gráfico 3D para computadoras que se usa para desarrollar juegos, aplicaciones interactivas, visualizaciones
y animaciones en 3D. Unity tiene soporte para plataformas como PC, Mac, Nintendo, Wii, Iphone, Android y la web usando su plugin
“Unity web player”. [5]
El éxito de Unity ha llegado en parte debido al enfoque en las necesidades de los desarrolladores independientes que no pueden
crear ni su propio motor del juego ni las herramientas necesarias o adquirir licencias para utilizar plenamente las opciones que
aparecen disponibles. El enfoque de la compañía es "democratizar el desarrollo de juegos", y hacer el desarrollo de contenidos
interactivos en 2D y 3D lo más accesible posible a tantas personas en todo el mundo como sea posible.”
Unity posee un editor visual para poder crear los juegos en él, pues todo el contenido del juego se construye desde este editor y
la forma en que los objetos se comportan, se programan usando un lenguaje de script (JavaScrip); esto anterior nos da a entender que
no se necesita ser un experto en lenguajes como C++ para poder desarrollar un juego o una animación con Unity 3D.
Unity se estructura mediante el manejo y la creación de escenas para el desarrollo de la aplicación deseada, una escena puede ser
cualquier parte del juego o la animación, ya sea un nivel del juego o un área determinada. Se empieza con un espacio en blanco en el
cual se puede dar forma a todo lo que se desee crear usando las herramientas de Unity.
Unity es accesible a cualquier tipo de público, pues está desarrollado en varias versiones, gratuita y profesional, ambas poseen
grandes ventajas al momento de desarrollar lo que se requiera, no obstante, la versión más completa es la profesional, pero hay que
aclarar que esta versión tiene un costo que no todo el mundo puede pagar y si a eso le añadimos, que se trata de alguien que apenas
está familiarizándose con la herramienta con la versión gratuita por el momento es más que suficiente. [6]
C. Android Studio
Android Studio es el entorno de desarrollo integrado oficial para la plataforma Android. [7]
En Android Studio podemos encontrar los siguientes componentes:
 Entorno integrado de desarrollo (Android Studio)
 Android SDK Tools: se incluyen un conjunto de herramientas de desarrollo y depuración de programas.
 Android Platform Tools: son las herramientas necesarias para poder compilar y generar los *.apk para Android.
 Desarrollo desde cualquier plataforma (Linux, Mac, Windows, etc).
 Un sistema operativo para cualquier tipo de dispositivo móvil, al no estar diseñado para un sólo tipo de móvil.
 Posibilidad para cualquier fabricante de diseñar un dispositivo que trabaje con Android, y la posibilidad de abrir el sistema
operativo y adaptarlo o extenderlo para su dispositivo.

44
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Tabla resumen de las herramientas de desarrollo que se ocuparon en el proyecto.

TABLA I APLICACIONES Y SUS FUNCIONES


Software Función
3D Max Diseño de modelos en 3D

Unity 3D Motor gráfico multiplataforma

Android Studio Entorno de desarrollo integrado para la


plataforma Android

III. METODOLOGÍA DE DESARROLLO


A. Analisis de situacion actual.
Para poder tener una mejor percepción de los modelos 3D que se desean simular es necesario estudiar las partes del cuerpo
humano y la mejor manera es mediante fotografías, videos, planos y todo aquello que pudiese ayudar como referencia visual.
B. Modelado
Se utilizó Autodesk 3ds Max para realizar los modelos en 3D una herramienta dedicado especialmente al modelado.
Con la ayuda de los profesores y estudiantes de la carrera de enfermería se trabajó para poder hacer cada modelo con cada una de
las especificaciones que estos requieren para poder estudiar.
Por lo general en cualquier proyecto de cualquier índole se sigue una secuencia de desarrollo, en este caso utilizamos la siguiente
secuencia:
Modelado: Una vez teniendo elementos de referencia se procede a la creación de los volúmenes de los objetos, esculpiendo los
diferentes elementos de nuestra composición, hasta lograr el resultado deseado, ya sea importando, vinculando o referenciado tanto
imágenes u archivos de otros programas, por lo general archivos con extensión dwg.
Iluminación y texturizado: Una parte esencial es la de obtención de una buena iluminación para lograr resultados realistas, con la
adición de materiales o texturas.
Rendering: Una vez teniendo texturizada nuestra escena y con una buena iluminación se procede a representar nuestra escena, ya
sea mediante una serie de imágenes fijas o una secuencia de imágenes con la adición de efectos.
Post-producción: Una vez finalizado el rendering, se procede a retocar, la imagen o las imágenes, mediante un programa de
edición de imágenes en el caso de imágenes fijas, y en el caso de las secuencias de imágenes (videos), algún software de edición de
video o post producción de video
Un ejemplo del Modelo 3D de cuerpo humano puede ser visto en la Figura 1.

Figura 1: Modelo 3D del cuerpo Humano

45
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

C. Implementación de modelos
Luego de tener el modelo en 3D se procedió a migrar los mismos a Unity 3D. El principal atractivo de este software es la
incorporación de un motor que nos permitió trabajar con físicas, partículas, cámaras y luces en el modelo, permitiendo al usuario
tener una experiencia más realista del modelo. En esta etapa se estableció la funcionalidad que tienen nuestros modelos. Cada
movimiento y acción. [8]
Se utilizaron las librerías de Google VR SDK de Unity que son de libre acceso desde las cuales se pudo realizar la
experimentación con la realidad virtual. Los auriculares VR y el control de mando proporcionó una limitada interacción e inmersión
en el mundo de la realidad virtual. No obstante, su factor económico fue muy ventajosos, debido a que se pudo probar dicha
tecnología desde un smartphone con Android a partir de la versión 4.4 en adelante. [9]
Por otra parte, fue necesario un PC con unas especificaciones mínimas para poder usar esta tecnología:

TABLA II ESPECIFICACIONES MÍNIMAS DE LA PC


Requisitos mínimos
Tarjeta gráfica NVIDIA GTX 1050 Ti/AMD Radeon RX 470 o superior
Tarjeta gráfica alternativa NVIDIA GTX 960/AMD Radeon R9 290 o superior
CPU Intel i3-6100/AMD Ryzen 3 1200, FX4350 o superior
Memoria 8 GB de RAM o más
Salida de vídeo Salida de vídeo HDMI 1.3 compatible
Puertos USB 1 puerto USB 3.0 más 2 puertos USB 2.0
SO Windows 10

D. Codificación de la solución en Android Studio


La plataforma Android Studio nos proporcionó la opción de poder crear los scripts para que el modelo pueda ser visualizado en
un dispositivo Android. En esta etapa nos encontramos con problemas de compatibilidad ya que en varias ocasiones se tuvo que
adaptar el código y las librerías ocupadas para tener una compatibilidad con la mayoría de los dispositivos Android. Con esto pudimos
obtener una App que nos permitió manipular la imagen desde un visor de realidad virtual y con ayuda de un control remoto, como
los que se pueden observar en la figura 2.

Figura 2: Auriculares de realidad virtual VR con controles remotos

Para tener un control mayor sobre lo que realmente el usuario está mirando en el entorno, se utilizó una mirilla que permitió
establecer el punto focal de la mirada del usuario con el modelo, permitiendo hacer zoom y poder girar el modelo a como se muestra
en la figura 3.

Figura 3: Campo de visión del usuario

46
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IV. RESULTADOS
Utilizando Google VR y una de sus demostraciones básicas se puede ver y entender el funcionamiento de esta tecnología y sus
limitaciones. Estas limitaciones son claras, debido al uso de dispositivos móviles como plataforma donde ejecutar la aplicación limita
la sensación de inmersión debido a las especificaciones técnicas de estos dispositivos. Por otra parte, tanto la interacción con el
entorno y movimiento en éste está limitada de igual forma al no disponer de sensores que nos ayuden en este objetivo. En la Figura
4 podemos observar el ambiente virtual desarrollado.

Figura 4: Visión del modelo 3D en la aplicación Android

Esta misma tecnología podría aplicarse en otras áreas específicas de las ciencias, por ejemplo, si pensamos en una clase de
biología, donde se está explicando la composición de las células eucariotas, sería útil un vídeo que muestre al estudiante un animal,
para después acercarse hasta el interior de su cuerpo, órganos, tejidos y finalmente descienda al nivel celular. En este momento, el
estudiante podrá mirar a su alrededor para ver la composición de la célula y adivinar dónde está el núcleo o cómo se llaman cada uno
de los elementos se convertirá en una técnica de enseñanza-aprendizaje más significativa para el estudiante en particular.
V. CONCLUSIONES
En definitiva, se han logrado las metas planteadas en el comienzo del trabajo de investigación tanto a nivel teórico, introduciendo
las nuevas tecnologías de realidad virtual y el trabajo realizado con el motor Unity, y a nivel práctico mostrando una demostración
de las bases fundamentales de la realidad virtual.
Para aprender algo no hay nada como experimentarlo y la realidad virtual es lo más parecido que puede haber, en este contexto
los estudiantes de enfermería mostraron mucho interés en la aplicación ya que les permitirá estudiar la anatomía humana de manera
más “divertida” utilizando sus propios teléfonos celular para introducirse dentro la realidad que se les proporcionara.
Dicha tecnología permite involucrar a los estudiantes de manera multi-sensorial sumergiéndolos en un ambiente virtual, donde él
puede probar las cosas, elegir, tomar decisiones e iniciativas, fallar y volver a intentarlo; tantas veces como sea necesario, hasta que
se desarrollen en él las habilidades y destrezas necesarias, que le permitan aprender cómo actuar y reaccionar en situaciones reales
ante accidentes, eventos fortuitos o fallas de funcionamiento.
VI. AGRADECIMIENTOS
Un especial agradecimiento a las autoridades académica de la Universidad Nacional de Ingeniería y de la Universidad de Ciencias
Médicas por abrir los espacios para la puesta en marcha de esta investigación.
VII. REFERENCIAS BIBLIOGRÁFICAS

[1] EDITECA, «Aplicaciones de la realidad virutal en la medicina y la salud,» 23 11 2018. [En línea]. Available:
[Link] [Último acceso: 01 mayo 2019].
[2] S. González Izard, J. A. Juanes, F. J. García Peñalvo, J. Gonçalvez Estella, M. J. Sánchez Ledesma y P. Ruisoto, «Virtual
Reality as an Educational and Training Tool for Medicine,» Journal of Medical Systems, pp. 42-50, 2018.
[3] D. Maniega Legarda, P. Yànez Vilanova y P. Lara Navarra, «Uso de un videojuego inmersivo 3D para el aprendizaje del
español: El caso de "Lost in La Mancha,» Revista ICONO14 Revista Científica De Comunicación Y Tecnologías Emergentes,
vol. 9, nº 2, pp. 101-121, 2010.
[4] N. Escobedo Rosales, «3D Estudio Max en el proceso creativo,» Instituto Tecnológico de Durango, Durango, Dgo., México,
2015.

47
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[5] Unity 3D, «Desarrollo de videojuegos para IOS y Android,» 05 Enero 2019. [En línea]. Available:
[Link]
[6] A. Chen, Kontagent releases full support for mobile game developers on unity 3D game, Colombia, 2012.
[7] Android Studio, «Android Studio Release Notes,» [En línea]. Available: [Link]. [Último acceso: 2019 Abril
05].
[8] S. González Izard, J. A. Juanes Méndez, F. J. García-Peñalvo, M. Jiménez López, F. Pastor Vázquez y P. Ruisoto, «360°
vision applications for medical training,» Fifth International Conference on Technological Ecosystems for Enhancing
Multiculturality, p. 54, 2017.
[9] Google LLC, «SDK Google VR para Unity,» [En línea]. Available: [Link] [Último acceso: 12
Marzo 2019].

VIII. BIOGRAFÍAS

Víctor López Castillo, Nació en Managua, Nicaragua el 03 de enero del 1999, actualmente está cursando el 4to año la carrera de
Ingeniería en Computación en la Universidad Nacional de Ingeniería (UNI). Su experiencia incluye proyectos en ferias científicas
educativas utilizando los lenguajes de programación Java y C#. Ha desarrollado proyectos en el entorno web con html5, CSS3 y
JavaScript.

Gabriel Lacayo Saballos, nació en Managua, Nicaragua, el 12 de septiembre de 1987. Se graduó como ingeniero en computación en
la Universidad Nacional de Ingeniería en 2011, se graduó de la maestría en Gestión y Administración de las TIC con especialización
en Gestión de Bases de Datos en la Universidad Centroamérica en 2018 en Managua.
Su experiencia laboral incluye Asistente Informático en el Instituto Nacional de Desarrollo, encargado de catedra y profesor titular en
la Universidad Nacional de Ingeniería.
Gabriel Lacayo ha participado en los congresos COMPDES desde el año 2010 como expositor de ponencias y talleres, es miembro de
IEEE participando en congresos CONCAPAN y CONESCAPAN donde ha redactado varias publicaciones desde el año 2012.

48
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Aplicaciones de la Microscopia Electrónica


de Barrido y Análisis Elemental de
componentes electrónicos y apoyo a la
investigación científica en El Salvador
Potenciando las areas de nanotecnologia e industria

Applications of Scanning Electron


Microscopy and Elemental Analysis of
electronic components and supporting for
scientific research in El Salvador
Improving the areas of nanotechnology and industry
Ing. Angel Hernández, Jonathan Ventura, Dr. Rainer Christoph

Laboratorio de Nanotecnología
Universidad Francisco Gavidia
San Salvador, El Salvador

aahernandez@[Link]
jventura@[Link]
rainer@[Link]

Resumen — La microscopía electrónica de barrido y la espectroscopía de energía dispersiva de rayos X son


herramientas que permiten magnificar muestras hasta 1,000,000x su tamaño y determinar la composición
elemental de un material biológico o antropogénico respectivamente, el desarrollo del conocimiento científico e
industrial necesita de equipo de alta precisión que complemente los procedimientos correspondientes a su campo
de aplicación, en El Salvador actualmente se encuentra disponible un equipo para el apoyo en ambos sectores.
Obteniendo análisis de control de calidad y detección de fallas en componentes electrónicos, estudio de biología
en especies de tamaño microscópico, así como el análisis elemental de muestras de origen volcánico entre otros
estudios.

Palabras clave; Electronica, Microscopia, Nanotecnología, MEB.


Abstract — Scanning electron microscopy and X-ray dispersive energy spectroscopy are tools that can magnify
samples up to 1,000,000x. Also determine the elemental composition of a biological or anthropogenic material.
The development of scientific and industrial knowledge needs high-tech equipment precision that complements
the procedures corresponding to its field of application. In El Salvador, these tools are currently available at the
Francisco Gavidia University for support industries and researches, e.g. analysis of quality control and fault
detection in electronic components, study of biology in species of microscopic size, as well as the elemental
analysis of samples of volcanic origin and other studies.

Keywords; Eletronic, Microscopy, Nanotechnology, SEM

49
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. INTRODUCCIÓN
La microscopia permite la visualización de información que no es perceptible al ojo humano, es un área
de trabajo multidisciplinar y por tanto aplicable a muchos tipos de muestras y procesos. Su desarrollo
principal fue motivado por la aplicación en la biología, sin embargo, hoy en día se puede aplicar en múltiples
áreas, en nuestro caso para el estudio de materiales y componentes electrónicos.
La información obtenida del análisis microscópico de una muestra es variada. Aparentemente se trata de
información cualitativa por lo que pareciera poco relevante. Sin embargo, las conclusiones que se puedan
obtener de un estudio completo sobre una muestra pueden ser cuantitativas. Para nuestro caso, por ejemplo,
podemos obtener la composición química de un material o podemos visualizar si algún componente
electrónico sufrió un corto circuito.
Un vistazo a un componente electrónico puede permitir un simple análisis visual del mismo. La estructura y
composición química son reflejadas únicamente en la morfología del material. El objetivo final de un análisis
microscópico es obtener precisión en esas observaciones, por lo que es necesario estudiar imágenes de
muestras con una resolución espacial mayor que la captada por nuestros ojos. Con nuestra vista es posible
ver objetos separados hasta unas 50µm, pero la información estructural que se desea visualizar se encuentra
menor a esta escala, por lo que se vuelve necesario la utilización de equipos que apoyen el análisis.
En ingeniería electrónica la microscopia es comúnmente utilizada en inspección de celdas solares
[1], inspección microelectrónica [2], nanolitografía [3], entre otros.

II. MICROSCOPIA
Desde sus inicios, el campo de la electrónica ha desarrollado equipos que facilitan la vida del ser humano,
en la actualidad contamos con circuitos muy pequeños que son capaces de realizar múltiples cálculos por
segundo como es el caso de los procesadores con transistores de hasta 10 nanómetros [4] y aún se sigue
investigando para llegar a los 5 nanómetros [5]. Un nanómetro (nm) es una unidad de longitud, equivalente
a los mil millonésimos partes del metro, los circuitos electrónicos contienen diferentes componentes y
tamaños dependiendo del propósito para el cual se crean, algunos de ellos son tan pequeños que cuando
ocurre un fallo y se analiza un componente por individual es muy difícil conocer la causa.
Es ahí donde participa la microscopía, la cual es utilizada para control de calidad e identificación de
fallos, existen dos tipos de microscopía: óptica y electrónica; en la microscopía óptica se utiliza el espectro
de luz visible para resolver objetos en el orden de los micrones, en el caso de la microscopía electrónica es
posible resolver imágenes en el orden de los nanómetros (109 m).
A diferencia de la microscopia óptica, la microscopía electrónica no utiliza luz para magnificar una
imagen, en su lugar, utiliza un haz de electrones disparados a alta velocidad que inciden sobre una muestra
conductora y refleja electrones denominados “secundarios”, la señal de estos electrones es captada por un
sensor que recopila la información topológica de una superficie.
A. Funcionamiento de un Microscopio Electrónico de Barrido
La microscopia electrónica de barrido (MEB o SEM por sus siglas en inglés) permite producir imágenes
de alta resolución sobre muestras conductoras mediante un haz de electrones, los electrones emitidos son
acelerados por una rejilla cercana polarizada positivamente. Este haz de electrones, en su viaje a través del
vacío, tiende a separarse debido a las fuerzas de repulsión electrostáticas que actúan entre ellos. Un campo
eléctrico, generado por unas placas, se encarga de focalizar el haz y condensarlo. Por último, en su camino
hacia la muestra, el haz es enviado hacia un punto mediante bobinas electromagnéticas, de manera que estas
permiten realizar un barrido en la zona que queremos estudiar luego, una computadora se encarga de resolver
la lectura de los electrones para mostrar una imagen clara de la superficie de una muestra, alcanzando niveles
de detalle muy altos (hasta 3 nm a 30kV), es decir 1,000,000 X de aumento (ver Fig. 1).

50
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 1. Esquema de un perfil de una muestra con diferentes objetos geométricos (arriba) y como se verían estos en un microscopio
electrónico de barrido(abajo) [6].

La imagen obtenida en el MEB se forma por barrido. El haz incide sobre un punto y produce un número de
electrones secundarios. El número de electrones producidos en el proceso de interacción depende tanto del
material (cuanto mayor es el número atómico mayor es la emisión: contraste por diferente elemento químico)
como de su forma (la emisión sobre una zona rugosa, borde o arista es mayor debido entre otras cosas a la
mayor concentración de carga en esos puntos: contraste topográfico). Si ahora desplazamos el haz a través
la muestra, mediante las lentes deflectoras, podemos generar una línea y, superponiendo líneas, formar una
imagen.
Entre las ventajas de la utilización de los equipos MEB cabe mencionar su fácil manejo y buena resolución
en el análisis de las muestras, además posee amplia profundidad de campo y es posible combinar el equipo
con otros componentes. Y entre las limitaciones se encuentran el alto costo de los equipos y la necesidad de
que las muestras deben ser conductoras, de no ser así las muestras deben ser recubiertas con Oro/Paladio que
son realizados por otro equipo.

B. Componentes del sistema emisor de electrones acelerados


El centrado de pistola está formado por un sistema de bobinas de desviación electromagnética bajo la pistola,
el cual está diseñado para permitir la inclinación del haz de electrones emitido por la pistola para que entre
en el eje del sistema óptico de la columna. Se controla mediante la función de alineación de la pistola. La
pistola está correctamente centrada si se selecciona la parte más intensa del haz de electrones y el brillo de
la imagen es el más alto (ver Fig. 2).
La abertura de pulverizado se coloca debajo de las bobinas de centrado de la pistola. Está destinado a retener
las partes marginales del haz de electrones emitido por el cañón.
Los condensadores C1 y C2 son fuertes lentes magnéticos para la magnificación de la fuente virtual. Cuanto
mayor sea la excitación del condensador, menor será su longitud focal y mayor su desimantación.
La abertura de salida corta el tamaño de la viga incidente final. Se coloca en el soporte en el extremo del
tubo central de vacío de la columna, a unos 60 mm por debajo del condensador C2. El tamaño óptimo del
agujero de apertura es de 50 µm.
El objetivo auxiliar LCI (Lente de centrado intermedio) es un objeto magnético utilizado para el cambio de
apertura del haz que entra en el objetivo o para mostrar si está apagado. El cambio de la excitación del LCI
provoca el desplazamiento del haz de electrones a través del eje óptico y por lo tanto es necesario compensar
este desplazamiento mediante el centrado del LCI de las bobinas de centrado.
El estigmatizador es un polo electromagnético. Su objetivo es compensar el astigmatismo en todos los modos
de visualización.
Las bobinas de exploración están formadas por dos etapas de las bobinas de desviación. Una rampa de
exploración está conectada a las bobinas. La frecuencia de la rampa determina la velocidad de barrido del
haz de electrones; la amplitud determina el campo de visión del microscopio y el aumento.
El objetivo es la última lente magnética de la columna que forma el haz de electrones resultante. En los
modos habituales, la excitación del objetivo está determinada por la distancia de trabajo (la distancia entre
la pieza del polo inferior del objetivo y la superficie de la muestra enfocada).

51
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 2. Vista de sección del cañon de electrones del microscopio electronico de barrido [7].

C. Espectroscopio de Energía Dispersiva de Rayos X


Otro elemento muy importante en la microscopía electrónica es la lectura de los rayos X característicos
de cada elemento en una muestra, esto se logra usando un Espectroscopio de energía dispersiva de rayos x,
abreviado como EDS, EDX [8].
Esta tecnología provee un análisis de los elementos químicos que componen una muestra, cuando un
electrón acelerado por el rayo del SEM colisiona con los electrones de la muestra, provoca un
desprendimiento de este, los electrones se reacomodan para mantener el átomo estable, cuando un electrón
de un nivel de energía exterior se desplaza a uno inferior libera un fotón en forma de rayos X (ver Fig. 3), la
energía resultante de la colisión dependerá del átomo, una computadora hace los cálculos correspondientes
y muestra en pantalla el elemento químico perteneciente a la zona analizada (ver Fig. 4).

52
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Rayo X

Figura 3. Esquema sobre el principio del EDS o EDX. Se producen colisiones entre los electrones acelerados y el átomo, los electrones
de las capas exteriores ocupan el lugar de las inferiores y liberan energía en forma de rayos X característicos de cada elemento químico.

Figura 4. EDX Oxford, permite obtener la lectura de los rayos X característicos de un elemento sobre una muestra.

Entre las aplicaciones del análisis EDS se encuentran:

• Formación de imágenes espectrales.


• Mapeo de pequeñas superficies a alta resolución.
• Análisis de partículas y películas finas.

III. APLICACIONES EN EL SALVADOR


A. Aplicación en la industria
En el área de la electrónica, el microscopio SEM se utiliza para control de calidad de capacitores y
componentes electrónicos pequeños, siendo algunos catalogados desde fallas de estética (ver Fig. 5), que
suelen ser manchas de contaminantes externos hasta cortocircuitos, dónde por malos procesos en el
tratamiento del capacitor se unen accidentalmente el ánodo y el cátodo, estas conexiones accidentales son
difíciles de ver con un microscopio convencional, incluso imperceptible bajo una imagen SEM, es ahí donde
entra el uso de un detector EDX, el cual permite conocer los rayos X característicos de las muestras, el
equipo muestra un mapa de energía dónde colorea la respuesta de los elementos químicos encontrados (ver
Fig. 6) a su vez se aplica un escaneo específico en un área determinada para conocer cuantitativamente su
composición (ver Fig. 7).

Figura

Figura 5. Fotografía SEM de un capacitor de cerámica con fracturas.

53
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Para que una muestra pueda ser vista bajo el microscopio electrónico debe ser conductora de
electricidad, de lo contrario es necesario un recubrimiento de un material conductor, en nuestro caso una
mezcla de oro (Au) y Paladio (Pd), una capa de 10nm es depositada sobre una muestra para aumentar su
conductividad eléctrica y pueda ser analizada bajo el microscopio electrónico.

Figura 6. Mapa de energía del corte transversal de un capacitor, una computadora resuelve la lectura de los rayos X característicos
de los elementos de u muestra, y asigna un color a cada elemento encontrado.

Cuando los electrones acelerados interactúan con los electrones de los átomos de la muestra existen
colisiones, se libera energía en forma de rayos X, y esta lectura es captada por el equipo EDX, el cual por
medio de la computadora es capaz de mostrar esa información de forma cualitativa y cuantitativa.

Figura 7. Lectura cuantitativa de los elementos encontrados por la lectura del EDX.

54
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

B. Aplicación en la investigación científica

El equipo SEM / EDX es aplicable para diferentes estudios, en el campo de la biología, es posible
caracterizar especies en el orden de los micrones, como el caso de las diatomeas (fitoplancton) los cuales
poseen formas definidas y de acuerdo con su estructura se puede hacer una clasificación de la diversidad
existente en nuestro país, para observarlas fue necesario secarlas por el método de punto crítico y luego
recubiertas con una capa de oro/paladio para volverlas conductoras (ver Fig. 8).

Figura 8. Diatomeas pertenecientes al Lago de Coatepeque, Santa Ana, vistas bajo microscopía electrónica de barrido, tamaños
aprox. 15 – 50 µm.

Algunas playas de El Salvador tienen un color negro característico, esto debido a su origen volcánico,
se tomaron algunas muestras, para determinar la composición elemental de la arena negra recolectada de
las costas de Xanadú en el departamento de La Libertad, bajo el SEM los granos de arena tienen
diferentes formas, algunas con incrustaciones de carbonatos (ver Fig. 9).

Figura 9. Fotografías SEM de arena negra de las costas de Xanadú, La Libertad.

Al analizarlas con el EDX se observó la presencia de un alto contenido de Hierro, esto a su vez
explica que este tipo de arena reacciona ante la presencia de un campo magnético (ver Fig. 10)

Figura 10. Análisis EDX aplicado a un grando de arena negra de las costas de Xanadú, La Libertad, Izquierda: Mapa de energía del
grano de arena. Derecha: Análisis cuantitativo de los elementos encontrados, puede apreciarse que en su mayoría contiene Hierro (Fe),
además de otros elementos como Calcio (Ca), Titanio (Ti), Fósoforo (P), Silicio (Si) entre otros.

55
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IV. CONCLUSIONES
La microscopía electrónica de barrido permite obtener imágenes de alta resolución sobre una muestra
conductora a resoluciones de hasta 1,000,000x, esto permite obtener en detalle la topología de la superficie
de una muestra, para la industria, controles de calidad en sus productos o importaciones, para la investigación
científica, permite ver a diferentes aumentos la morfología de los diferentes especímenes existentes, también
es aplicable en otras áreas como arqueología, forense, alimentos, etc. Las muestras no conductoras como
polvos, materia orgánica, polímeros, aislantes entre otros deben ser secadas y recubiertas de una capa de
10nm de Oro/Paladio.
El EDX permite captar los rayos X característicos de los elementos que se encuentran presentes en una
muestra, esto permite conocer su composición química, y es una herramienta útil para la investigación
científica tanto para los procesos de la industria, en donde es necesario conocer los materiales que se están
utilizando o importando, comprobar la calidad que ofrece un proveedor en sus productos, así como para el
área de investigación como la ciencia de materiales, productos de la ingeniería, diversidad biológica, etc.
El EDX se encuentra disponible en Laboratorio de Nanotecnología de la Universidad Francisco Gavidia
junto con el Microscopio Electrónico de Barrido, modelo Tescan Vega 3 LMU, el cual ha sido adquirido en
el presente año e iniciado sus operaciones desde enero 2019 apoyando a la industria y otras universidades en
la investigación científica.
V. AGRADECIMIENTOS
Se agradece al Instituto de Ciencia, Tecnología e Innovación de la Universidad Francisco Gavidia y a la
Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) por el apoyo recibido en este
trabajo.
VI. REFERENCIAS BIBLIOGRÁFICAS
[1] G.O. Osayemwenre, E.L. Meyer, S. Mamphweli, "SEM Analysis as a Diagnostic tool for Photovoltaic Cell Degradation", in
Digest Journal of Nanomaterials and Biostructures Vol. 10, No. 2, p. 479 – 487, June 2015.
[2] A. G. Stanley and M. K. Gauthier, "SEM Analysis of Ionizing Radiation Effects in Linear Integrated Circuits", in IEEE
Transactions on Nuclear Science, vol. 24, no. 6, pp. 2060-2065, Dec. 1977.
[3] S. Wei, L. Dai, J. Zhang, "Flexible Nanofabrication Equipment: E-beam Lithography System Based on SEM", in Telkomnika
Indonesian Journal of Electrical Engineering, vol. 12, no. 5, pp. 3841-3848, May. 2014.
[4] Etienne Sicard. Introducing 10-nm FinFET technology in Microwind. 2017. ffhal-01551695f
[5] Sujay B et al. “MoS2 transistors with 1-nanometer gate lengths”, in American Association for the Advancement of Science, Oct.
2016.
[6] Martin Gago, Jose. La Microscopía para el Estudio de Materiales y Láminas Delgadas, 2019.
[7] User’s manual Scanning Electron Microscopy, model Tescan Vega 3LMU
[8] Scimeca, M., Bischetti, S., Lamsira, H. K., Bonfiglio, R., & Bonanno, E. “Energy Dispersive X-ray (EDX) microanalysis: A
powerful tool in biomedical research and diagnosis”, in European journal of histochemistry: EJH. 62. Mar 2018.

56
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Implementación de Sistema de Riego Automatizado, Control y


Monitoreo Inalámbrico (Smart Plant System), para la Finca
“Nicatinahuac”, comunidad de Troilo, León- Nicaragua.

Implementation of Automated Irrigation System, Control and


Wireless Monitoring (Smart Plant System), for the Finca
"Nicatinahuac", community of Troilo, León- Nicaragua.

Arnoldo José Contreras Mercado.


Departamento de Computación, Facultad de Ciencias y Tecnologías, Universidad
Nacional Autónoma de Nicaragua, León (UNAN-León) arnol_con@[Link]

Jairo José Martínez Jirón.


Departamento de Informática (PROMUJER) Nicaragua, jairomarj@[Link]

Resumen - Los sistemas de riego proporcionan a las plantas el agua imprescindible para su crecimiento y
desarrollo. Para nuestro sistemas de riego se desarrolló una aplicación móvil en lenguaje Android, para el
control y monitoreo, un sistema de bases de datos Mysql para el almacenamiento de datos de los sensores, una
programación processing para el IDE de Arduino, que establece el funcionamiento de los diferentes sensores,
relés y válvulas del sistema, tecnologías necesarias para asegurar funcionamiento, suministro el recurso
hídrico que la planta necesita, evitando así el desperdicio de agua. Este trabajo se desarrolló en la finca
Nicatinahuac, comunidad de Troilo, municipio de León, en el periodo 2017-2018 y tiene el propósito de
mostrar la implementación funcional con base en la integración de cuatro tecnologías, computación,
comunicación, electrónica y energías renovables, para automatizar y monitorizar el control del riego en
sistemas cerrados o abiertos. Para establecer la cartilla de control hídrico del siembro, en nuestros caso
(papaya hawaiana), se obtuvo información del suelo (porcentaje contenido de arena, arcilla, materia orgánica
y densidad aparente) y del cultivo (tipo, duración, funciones de crecimiento radicular y Kc). Como resultado se
obtuvo además del buen funcionamiento del sistema de riego, el histórico de las lecturas de los diferentes
sensores, los cuales pueden servir para mejorar el manejo de los miembros en la zona. Con el uso de micro
controladores y su programación open source, se pueden diseñar diferentes sistemas automatizados,
estableciendo el concepto IoT, ( Internet de las cosas). Como una red de objetos informáticos
interrelacionados, máquinas mecánicas y digitales, objetos, animales o personas que cuentan con
identificadores únicos (UID) y la capacidad de transferir datos a través de una red sin necesidad de personal a
una computadora, móvil a través de la nube.
Palabras clave: automatización, balance hídrico, digital, comunicación.

Summary- Irrigation systems provide plants with the essential water for their growth and development, for our
irrigation systems a mobile application was developed in Android language, for control and monitoring, a
Mysql database system for the storage of data from the sensors, a processing programming for the IDE of
Arduino, which establishes the operation of the different sensors, relays and valves of the system, necessary
technologies to ensure operation, supply the water resource that the plant needs, thus avoiding the waste of
water. This work was developed in the Nicatinahuac farm, community of Troilo, municipality of León, in the
period 2017-2018 and has the purpose of showing the functional implementation based on the integration of
four technologies, computing, communication, electronics and renewable energies, to automate and monitor
irrigation control in closed or open systems. To establish the sowing water control card, in our case (Hawaiian
papaya), soil information was obtained (percentage content of sand, clay, organic matter and bulk density) and
crop (type, duration, root growth functions and Kc). As a result, besides the good functioning of the irrigation
system, the history of the readings of the different sensors was obtained, which can serve to improve the
management of the members in the area. With the use of microcontrollers and their open source
programming, different automated systems can be designed, establishing the IoT concept, (The Internet of
things). As a network of interrelated computer objects, mechanical and digital machines, objects, animals or
people that have unique identifiers (UID) and the ability to transfer data through a network without the need
for personnel to a computer, mobile through the cloud.
Keywords: automation, water balance, digital, communication.

57
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. INTRODUCCIÓN.

Nicaragua es un país especialmente privilegiado en cuanto a recursos hídricos, cuenta con


38,668 m3/per cápita/año, lo que posiciona al país por encima del promedio de los países de Centro
América. A pesar de ello, la contaminación de los recursos hídricos superficiales y subterráneos ha
tenido gran impacto en la disponibilidad del recurso hídrico. Es por ello que se considera que Nicaragua
tiene escasez económica de agua (International Water Management Institute, 2007). Un problema que se
presenta, es que no todas las fincas gozan de un eficiente sistema de riego, implicando en gastos
excesivos por la forma de regar ya que usan bombas a gasolina de para irrigar los campos y determinan
la cantidad basado en horas de riego. [7]

El riego automatizado en Nicaragua de alto nivel tecnológico es poco utilizado, pues


generalmente tiene costos elevados y solo son simples programadores de tiempo, independientemente sí
ha llovido o no. Otros sistemas con ambientes controlados en función de datos internos y externos, la
mayor parte de los procesos se controlan por computadoras y dispositivos electrónicos, las cuales se
encargan de operar los equipos de riego, mantener estable la temperatura, suministrar las soluciones
nutritivas, así como abrir y cerrar ventanas automáticamente. Nuestro sistema es implementado en la
finca Nicatinahuac, cuenta con una serie de sensores que detectan las variaciones de humedad en el suelo
y envían señales a los micro controladores para operar los dispositivos que se encargan de compensar o
corregir dichas variaciones [1], así como también activar las diferentes válvulas para dejar pasar el agua a
las tuberías y mangueras del sistema de riego.

La época de lluvias del año 2017 en Nicaragua fue completamente atípica en las zonas secas,
pues aunque no ocurrieron abundantes precipitaciones, fueros suficientes para la obtención de buenas
cosechas y recargar los mantos acuíferos superficiales. Por tanto la actual descripción del norte del
Corredor Seco (CS), corresponde a los años “normales” en esas áreas es decir donde siempre ha estado
presente la sequía y se refiere más a la parte norte, correspondiente a los departamentos de Madriz, N.
Segovia, norte de Estelí, parte de Matagalpa y norte de Chinandega. [8]

El monitorear el contenido de agua en el suelo es esencial, para ayudar a los agricultores a


optimizar la producción, conservar agua, reducir los impactos ambientales, nuestro sistema puede ayudar
a tomar mejores decisiones en la programación del riego ya que nos permite observar los valores en
tiempo real de la humedad del suelo, determinando así la necesidad de aplicar el riego. El exceso de
irrigación puede incrementar el consumo de energía y los costos de agua, aumentar el movimiento de
fertilizantes por debajo de la zona radicular, producir erosión y transporte de suelo y partículas de
químicos a los canales de drenaje y también destruir las plantas. El riego insuficiente puede reducir la
producción de las cosechas. [9]

Nuestro sistema pretende mejorar la eficiencia del riego, así como también ayudar a bajar los
gastos operativos ya que el sistema consiste en un programa que controla la humedad del suelo, que
dependiendo de los niveles de humedad, el sistema por sí mismo manda abrir válvulas para realizar el
riego y así compensar cerrando o abriendo las válvulas del riego, de esa manera el agua que se irriga es la
necesaria para mantener las plantas con el nivel de humedad requerido por el tipo de cultivo, en nuestro
caso (Papaya Hawaiana), al mismo tiempo estos valores de humedad, temperaturas etc., son enviados a
las base de datos por medio del modem conectado al router, que a su vez están conectados los dos micro
controladores obteniendo así los valores del sensor en tiempo real. También el sistema es capaz de
monitorizar y controlar las diferentes funciones a distancia. [4]

Figura 1: Distribución del riego en Nicaragua.

58
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

II. OBJETIVOS.

A. Objetivo General.
 Implementar un sistema de riego automático, para gestionar la irrigación de las plantas bajo
demanda en espacios abiertos, que pueda ser utilizados en fincas o sitios de investigación, realizar
mediciones de las diferentes variables como temperatura, humedad de suelo y cantidad de agua,
monitoreando los diferentes lecturas y mostrarlos en forma de gráficos en la aplicación móvil.

B. Objetivos Específicos.
 Diseñar una base de datos en Mysql, en la que se almacenará los datos que enviaran de los
sensores en tierra y poder consultar los datos históricos.

 Confeccionar dos unidades de estaciones de medición y control de los micro controladores y


configurar los mismos para la transmisión de datos. (Gateway).

 Desarrollar una aplicación móvil en Android Studio, para monitorear datos en tiempo real y
controlar diferentes funciones del sistema.

III. MATERIAL Y METODO.

A. Electronica.
El sistema electrónico está basado en el uso de elementos como condensadores, estabilizadores de
voltajes y reguladores de voltajes, baterías de 12v, electroválvulas, relés, micro controlador, ventilador,
sensores de temperatura , sensores de humedad de suelo, sensores de flujo y sistema de cableado a los
interno y a lo externo (campo), del módulo controlador. Para este trabajo se emplea una micro controlador
versión YUN, que está basado en micro controlador ATmega32u4 y en un chip Atheros AR9331 (que
controla el host USB, el puerto para micro-SD y la red Ethernet/WiFi), ambos comunicados mediante un
puente.
 El Arduino YUN, [3] micro controlador que se programa de tal forma que es capaz de establecer
comunicación con la base datos mediante una conexión Wifi. Los datos recopilados por los subsistemas
de las mediciones de las magnitudes físicas serán almacenados en la base de datos diseñada y desarrollada
para tal fin.

 El módulo HL-69, un sensor de humedad de suelo, no es más que un módulo que utiliza la
conductividad entre dos terminales para determinar ciertos parámetros relacionados con el agua,
líquidos y humedad, un módulo HL-69 contiene un IC (circuito integrado) comparador Lm393 SMD, un
led de encendido y otro de activación de salida digital o analógico, físicamente consiste en dos placas
separadas entre sí por una distancia determinada. Ambas placas están recubiertas de una capa de
material conductor. Si existe humedad en el suelo se creará un puente entre una punta y otra, lo que
será detectado por un circuito de control con un amplificador operacional que será el encargado de
transformar la conductividad registrada a un valor analógico que podrá ser leído por Arduino.[6]

 El relé es un dispositivo electromecánico, que funciona como un interruptor controlado por un


circuito eléctrico en el que, por medio de una bobina y un electroimán, se acciona un juego de uno o
varios contactos que permiten abrir o cerrar otros circuitos eléctricos independientes para activar otros
dispositivos.

 Una electroválvula es una válvula electromecánica, diseñada para controlar el paso de


un fluido de agua por un conducto o tubería. La válvula se mueve mediante una bobinas o solenoide.
Generalmente no tiene más que dos posiciones: abierto y cerrado, las electroválvulas se usan en multitud
de aplicaciones para controlar el flujo de todo tipo, estas se activan se relación con el sensor el cual envía
la señal al micro controlador arduino y dependiendo de los valores de humedad del suelo del sensor de
humedad y de los parámetros humedad establecidos según sea el tipo del cultivo el micro controlador
active el relé que a su vez alimenta la electroválvulas dejando pasar el agua para el riego de las plantas.

59
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

 El Sensor de flujo de agua consiste en una válvula de cuerpo de plástico, Este sensor de efecto
Hall, es un disparador de impulsos para el encendido transistorizado TZ-H, de un rotor que gira a
diferente velocidad, cuando el agua fluye a través de este, nosotros utilizamos para una tubería de ¾
pulgada. Este sensor es utilizado en nuestro sistema, para medir la cantidad de agua que pasa por la
tubería en el momento del riego, pudiendo así establecer cuantos litros por ahora puede gastar dicho
riego.

 Sensor DHT11 es un sensor digital de temperatura y humedad relativa de bajo costo y fácil
uso. Integra un sensor capacitivo de humedad y un termistor para medir el aire circundante, y muestra los
datos mediante una señal digital en el pin de datos (no posee salida analógica). Utilizado en aplicaciones
académicas relacionadas al control automático de temperatura, aire acondicionado, monitoreo ambiental
en agricultura y más. En cuanto al hardware, solo es necesario conectar el pin VCC de alimentación a 3-
5V, el pin GND a Tierra (0V) y el pin de datos a un pin digital en nuestro Arduino. [6]

 El regulador de 12v a 5v puede tener un rango de voltaje de entrada: 6 a 26 v, los voltaje de


salida: 5.2 V (considere la pérdida de la línea de carga, la salida es de aproximadamente 5.2 V, el final de
la carga es de aproximadamente 5 V), Limite la corriente de salida es de 3amp (el límite de corriente de
salida estable es 2 amperios), este elemento electrónico nos sirve para reducir de 12 voltios a 5 ya que la
mayoría de los componente del módulo trabajan con 5voltios.

 Un condensador electrolítico (también conocido frecuentemente con el anglicismo capacitor,


proveniente del nombre equivalente en inglés) es un dispositivo pasivo, utilizado
en electricidad y electrónica, capaz de almacenar energía sustentando un campo eléctrico.[1][2] Está
formado por un par de superficies conductoras, generalmente en forma de láminas o placas, en situación
de influencia total (esto es, que todas las líneas de campo eléctrico que parten de una van a parar a la otra)
separadas por un material dieléctrico o por la permisividad eléctrica del vacío.

 Ventilador/ extractor, este aparato sirve para extraer el calor del ambiente cerrado de la caja, ya
que los elementos electrónicos generan cierta temperatura por lo que se hace necesario la extracción del
mismo. El ventilador funciona ya que el sensor de temperatura el cual manda las lecturas al Arduino y el
programa evalúa si apaga o no el ventilador por medio del accionamiento del relé pues el ventilador
funciona con 12v.

B. Comunicación.
 Una tarjeta SIM (acrónimo módulo de identificación del suscriptor), en español módulo de
identificación de abonado) es una tarjeta inteligente desmontable usada en teléfonos móviles y módems
HSPA o LTE que se conectan al dispositivo por medio de una ranura lectora o lector SIM. El cual nos
permite que con $10 (Dólares) de recarga mensual podamos obtener internet, para la transmisión las
lecturas de los sensores hacia la base de datos.

 El módem USB es un sistema que permite conectar tu portátil o PC a Internet desde cualquier
sitio, sin instalaciones y, en algunos casos, sin alta de línea ni consumo mínimo. La conexión a Internet
por USB se realiza a través de una tarjeta SIM y se conecta a la red de telefonía móvil en nuestro caso de
Movistar ya que había cobertura en la zona de la siembra. Si bien es cierto que los dispositivos USB están
preparados para soportar conexiones rápidas, las redes a las que estos dispositivos se conectan están algo
menos avanzadas. Pero es lo que se pudo adquirir en el mercado local para la realización del proyecto.

 Mini Router: El modelo El TL-WR710N TP-LIN, está diseñado como una solución ideal a la
debilidad de Wi-Fi. Con el router conectado es un seguro punto de acceso para todos los dispositivos
habilitados para Wi-Fi se establece al instante. Con 5 modos de funcionamiento, Wireless Router, Cliente,
Repetidor, Punto de Acceso y el modo Router Cliente WISP. el dispositivo nos permite interconectar los
dos microcontroladores de forma inalámbrica y el modem que nos ayuda a la conexión de internet,
garantizando la trasmisión de los datos y la interconexión de los micro controladores.

60
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

C. Energias Renovables.
Como un plan contingente y además que la finca Nicatinahuac carece de energía convencional, se
tuvo que implementar un sistema de energético a base de paneles solares con su respectiva batería así
como su regulador voltaje, según la carga calculada, para que nos garantizara el voltaje y corriente
necesaria para mantener el sistema funcionado al 100%.

 Panel Solar, RS 80W 12V Policristalino de alto rendimiento fabricado por Perlight Solar.
Compuesto por 36 células de gran calidad, cristal de gran dureza, bastidor de aluminio galvanizado.
Permite instalar el panel sobre distintos sistemas estándar de montaje. Para la garantía de energía eléctrica
se tuvo que instalar 4 paneles, dos por cada caja de control. Garantizando así energía eléctrica 24 / 7,
energía necesaria para el funcionamiento de los diferentes dispositivos electrónicos y comunicación. [11]

 Regulador de Carga, cuyo propósito del regulador solar es asegurar la carga y descarga
eficiente de la batería en la instalación. Los reguladores PWM ayudan a regular el voltaje procedente del
panel o paneles fotovoltaicos, para proteger las baterías del sistema de las posibles sobrecargas. Cuando
una matriz solar tiene conectada un regulador PWM, este maneja el trabajo de carga de la batería, al
verificar constantemente el estado actual de la batería y autoajustase, para así enviarle solo la cantidad
correcta de carga.

 Batería de Respaldo, las baterías almacenan energía eléctrica de CD en forma química. Su


función es la de acumular la energía que se produce durante las horas del día para poder ser utilizada
durante la noche o cuando haga mal tiempo (día nublado, lluvioso). También tienen la función de proveer
una intensidad de corriente mayor a la generada por el SFV, por ejemplo para el encendido de un
televisor. Las baterías tipo vaso abierto son muy parecidas a las de los automóviles, la diferencia
principal es que las baterías para SFV están diseñadas para trabajar en “ciclo profundo” es decir,
descargan pequeñas cantidades de corriente por largos periodos de tiempo; Las baterías de ciclo profundo
pueden ser descargadas hasta un 80% y pueden durar hasta 10 años con un mantenimiento adecuado.

IV. METODOS.

Como parte de la metodología implementada en este proyecto, se diseñó toda una lógica de
funcionamiento donde se muestra la interacción de los diferentes sub sistemas, objetos y elementos de
sistema Smart Plant System, la cual se detallamos a continuación.

A. Sistema de Bases de Datos.


Un sistema de bases de datos diseñado en mysql, para el alojamiento de los datos enviados por los
sensores que se encuentra en tierra, donde se muestra las relaciones que de las diferentes tablas del
sistema implementado.

Figura 2: Diseño de Bases de Datos Relacional.

61
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

B. Aplicaion Móvil .
La aplicación Smart Plant System, fue diseñada en Android Studio, en la figura se muestra a bloque
las diferentes capas, como la de presentación, la capa de negocios, capa de datos, controladores, la
programación se realizó bajo el modelo-vista-controlador (MVC), que es un patrón de arquitectura de
software, que separa los datos y la lógica de negocio de una aplicación de su representación y el módulo
encargado de gestionar los eventos y las comunicacioneselementos necesarios para que dicha aplicación
pueda realizar los diferentes funciones, como es accionar a distancia algún sistema, monitorear las
diferentes lecturas, activar o desactivar sensores y mostrarlas los gráficos en la aplicación móvil

Figura 3: Estructura de en capas de apalicaicon Movil


Smart Plant System..

C. Interconexion del Sistema.


En la figura 4 se muestra la lógica del funcionamiento del Sistema Smart Plant System, donde se
observa claramente la interconexión de todos los partes que contiene el proyecto. Donde la Gateway es
nuestro modulo cuya función es enviar los datos a la nube y conectar vía cable con los sensores de
humedad de suelo, así como la válvulas y sensor de flujo, los paneles solares que alimentan
eléctricamente el sistema. La plataforma web y BD, donde se reciben los datos de las lecturas de los
sensores y estos son almacenados. Así como la conexión del móvil con la base de datos alojado en la
nube.

Figura 4: Sistema Lógico de Funcionamiento.

62
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. RESULTADOS Y DISCUSIÓN.

En relación a los resultados obtenidos lo detallaremos en varias partes, mostraremos desde la creación
de los módulos y el sistema de alimentación eléctrica, así como el funcionamiento del sistema Smart Plant
System y algunos de sus gráficos.

A. Unidad de Control Samrt Plant System.


Como uno de los resultados podemos apreciar el sistema de control, con todos los componentes
empotrados en una caja de plástico herméticamente cerrada, la cual nos garantiza que los componentes no
se oxiden fácilmente. También podemos apreciar el diseño gráfico y eléctrico del módulo. Así como se
observa la conexión eléctricas dentro y fuera del módulo.
Panel Solar
Relés
Ventilador

Sensor Mini Router


Temperatura

Reductor DC
Arduino YUN
Modem USB
Conexión de
cables

Figura 5: Módulo Gateway, Smart Plant System.

B. Sistema de Alimantación Electrica.


El emplazamiento de los paneles Solares se realizó utilizando paneles de 80 watts, 4.5 amperios, estos
fueron conectados en paralelo, para obtener los 12v y 9Amp, los cual es suficiente para alimentar el
sistema eléctrico del módulo que alimenta el micro controlador, router, modem, los relés, válvulas y los
sensores. Pues son necesarios 4 amperios de consumo general del sistema más los 5 amperios de para
almacenar en las baterías y garantizar el funcionamiento del sistema por las noches.

Figura 6: Instalación de Paneles Solares.

63
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

C. Aplicación móvil Smart Plant System.


En la relación a la aplicación móvil, esta se desarrolló en lenguaje Android, ya que es un lenguaje de
programación muy popular y utilizada en los equipos celulares con sistemas operativos Android. Nuestro
sistema Smart Plant System realiza varias funciones como.

1- Establecer comunicación y conexión con la base de datos, cumpliendo con sus estándares de
conectividad y seguridad.

2- Controlar algunas operaciones de importancia como es el riego, iluminación, bombeo de agua y


sistema de riego, como parte del plan contingente ante algún problema con los sensores.

3- Monitoreo de los valores de los sensores como son, temperatura, humead relativa, cantidad de
agua suministrada y la humedad de suelo.

Figura 7: Aplicación Móvil Smart Plant System.

D. Gráficas de los sensores por mes, en el año 2018 .

Figura 8: Graficas de los sensores de Flujo, Temperatura y Humedad de suelo.

E. Ubicación del Sistema y sistema de Riego.


El sistema fue implementado en la finca, Nicatinahuac, en la comarca Troilo, municipio de León,
Nicaragua, el cual es una terreno muy arcilloso, cuyo dueño es el Ing. Fernando Leiva de profesión
Agrónomo, el cual estuvo muy receptivo e interesado en la tecnología que se implementó, además de
contar con su ayuda para el manejo del cultivo ( Papaya Hawaiana). Aunque el sistema ha funcionado
satisfactoriamente, la falta de tecnología en nuestro país hace muy costosa la implementación del sistema,
es evidente el trabajo que conllevo este proyecto, pero nos satisface grandemente la funcionalidad del
mismo poniendo a prueba lo establecido en la propuesta.

Figura 9: Finca Nicatinahuac, Troilo León, Nicaragua.

64
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Tanque de Agua Módulos


Por Gravedad. Smart Plan System

Sensores de
Electro Válvulas Humedad
Y válvula manual

Riego Por Goteo

Figura 10: Sistema de Riego por Goteo.

F. Cosecha y comercialización.
El rendimiento según la experiencia del ingeniero Leiva, obtuvo los mismos rendimientos, muy
parecidos a la siembra tradicional, en relación a la cosecha se estuvo sacando producto desde diciembre
2017 a Junio del año 2018. Un cuarto de manzana genero aproximadamente como $1,200. Dólares
americanos (C$ 39,600, Córdobas Nicaragüense), con 290 plantas, con una inversión de C$ 15,000
córdobas, en relación a la venta este dependerá del mercado.

Figura 11: Árboles de Papayas Hawaiana.

Figura 12: Cosecha de la Papaya.

65
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VI. CONCLUSIONES

En este trabajo se utilizó el concepto de Internet de la Cosas, (Internet of Things, (IoT)), el uso de la
domótica y las tecnologías aplicadas en este proyecto en particular, lo que nos permite tener datos
históricos de los diferentes sensores en la base de datos construida para este propósito, los que pueden ser
utilizados para predecir comportamiento futuros en relación a la temperatura, humedad y los gastos para
la próxima cosecha. También se demuestra el uso de aplicaciones móviles a beneficio de la agricultura,
monitoreando y controlado las diferentes funciones que el sistema tiene. Otro aspecto a mencionar es el
diseño eléctrico a partir del uso de paneles solares para suministrar energía necesaria, pues en la zona no
hay energía eléctrica convencional.
Con la ayuda de las tecnologías informática y hardware libre podemos desarrollar proyectos de más
impacto. En nuestro sistema de riego ha probado que la tecnología se puede vincular en diferentes
actividades de producción agrícola, pero también se pude utilizar en la ganadería y para otras actividades
como la investigación. Por lo general la IoT, pueda ofrecer conectividad avanzada de dispositivos,
sistemas y servicios que van más allá de las comunicaciones de máquina a máquina (M2M), ya que con
ayuda de módulos GSM/GPRS, se puede lograr implementar otros tipos de proyectos[5], donde la Big
data es ahora una herramienta importante para realizar diversos proyectos y servicios en la nube.

VII. AGRADECIMIENTOS

Nuestro agradecimiento, para las persona que de una u otra manera estuvieron involucradas para
llevar a feliz término el proyecto de riego Smart Plant System, utilizando diversas tecnologías, así mismo
nuestra gratitud, para la persona que nos colaboró en relación al manejo de la agricultura de papaya
hawaiana, el Ing. Fernando Leiva, dueño de la finca Nicatinahuac, él nos asesoró y nos llevó la cartilla
del manejo de la siembra, así como superar las dificultades antes, durante y después del proceso de la
siembra.

VIII. REFERENCIAS BIBLIOGRÁFICAS

[1] Aportes para el mejoramiento del manejo de los sistemas de riego, ISBN 978-987-521-512-2.
[2] Uso de sensores de humedad del suelo para eficientizar el riego, Juan M. Enciso, Dana Porter and
Xavier Périès* Texas A&M AgriLife, Extension.
[3] Arduino Curso Práctico de formación ESPAÑ[Link],ISBN: 978-607-707-648-3, Primera edición:
Alfaomega,Grupo Editor, México, febrero 2013.
[4] La domótica como solución del futuro, Madrid 2007, Carlos López Jimeno.
[5] Internet de las Cosas, Objetos interconectados, y dispositivos inteligentes Clúster ICT - Audiovisual
de Madrid.
[6] Computacion para el desarrollo, Aplicación móvil para automatizar el riego, medición de consumo
de agua, utilizando micro controlador, sensor y tecnologías informá[Link]: ISBN 978-84-16599-
87-5.
[7] [Link]
[8] [Link]
[9] [Link]
[10] Fundamentos de bases de datos Quinta edición, ISBN: 0-07-295886-3.
[11] Capacitación E Instalación De Sistemas Fotovoltaicos En Las Comunidades De Carmen Del Emero
Y Yolosani, Marzo 2015, Camilo Uzquiano (Solar Energy International).
[12] Android App Development. 3ra Edicion.
[13] Curso Android: Desarrollo de aplicaciones móviles, junio 2001.

66
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Evaluación de Fugas de Información en Sitios


Web de las Universidades de Nicaragua por
Medio de Documentos Públicos

Information Leakage Evaluation in Websites


of Nicaraguan Universities through Public
Documents

Néstor Antonio Traña Obando


Universidad Nacional de Ingeniería - Nicaragua
[Link]@[Link]

Engels Josué Delgado Tórrez


Universidad Nacional de Ingeniería - Nicaragua
engelsdelgado2@[Link]

Resumen — Las universidades nicaragüenses cuentan con sitios web para la divulgación de su vida academica.
Para la ayuda de esta divulgación es necesario que los administradores de los servidores web suban archivos
digitales a los sitios web. Sin embargo, si las universidades no cuentan con políticas para el borrado de los
metadatos que se encuentran; algunas veces ocultos, en estos documentos digitales, esta información privada
que brindan de manera pública en los sitios web, puede ser utilizada para distintos fines, entre los que se
encuentran los ataques cibernéticos. Este articulo muestra la fuga de información que se genera en las
universidades de Nicaragua, por medio de los metadatos que se encuentran en los archivos públicos alojados en
los sitios web, la metodología que se llevó a cabo para la recolección datos, así como el manejo y análisis de la
información para brindar los resultados obtenidos.

Palabras clave; fuga de información, metadatos, politicas de seguridad.

Abstract — Nicaraguan universities have websites for the dissemination of their academic life. For the help of
this disclosure it is necessary that the administrators of the web servers upload digital files to the websites.
However, if universities do not have policies for erasing the metadata found; sometimes hidden, in these digital
documents, this private information that they provide publicly in the websites can be used for different purposes,
among which are the cyber attacks. This article shows the leakage of information that is generated in the
universities of Nicaragua, through the metadata found in the public archives housed in the websites, the
methodology that was carried out for data collection, as well as the management and analysis of information to
provide the results obtained.

Keywords; leakage of information, metadata, security policies.

67
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. INTRODUCCIÓN
Los “Metadatos” pueden definirse como simplemente datos que contienen información relativa a un
documento o fichero concreto. [1]. En un documento de Word, Excel, Power Point, o PDF, podríamos
encontrar entre sus metadatos información relacionada, como los usuarios que han manipulado los
documentos, el software en el cual se han editado, datos sobre quien fue el autor, fecha de creación o
modificación, etc. Si nos referimos a alguna imagen o foto, también podríamos encontrar información del
software en el que se modificó dicha imagen, marca y modelo de la cámara o el teléfono celular con el cual
se hizo la captura de la imagen e incluso hasta las coordenadas de geolocalización (GPS) desde donde se
tomó la foto.
Lo anterior no significa que los metadatos sean malos o perjudiciales. En realidad, son muy útiles, ya que
sirven para organizar la información y eso hace que se facilite su localización, esto debido a que la
información que tienen incorporada es utilizada para la optimización de las búsquedas. Desde la computadora
más simple, pasando por los Sistemas de Gestión de Documentos y hasta los motores de búsquedas más
conocidos como Google y Yahoo!, utilizan los metadatos para filtrar y localizar documentos.
Aunque los metadatos tienen una gran utilidad, no significa que no debamos preocuparnos por la
información que puedan revelar. Los metadatos pueden convertirse en un gran riesgo para el que crea la
información, si este distribuye o publica los documentos en Internet y no son gestionados de la forma
correcta.
II. INFORMACIÓN OCULTA Y DATOS PERDIDOS
A. Información Oculta
La información oculta es información no editable por el usuario que será usada por el programa que lo
interpreta, como la ruta a la plantilla con la que se está creando el documento, el modelo de la impresora con
la que se ha formateado una página, etc. [1].
B. Datos Perdidos
Los datos perdidos son información que se encuentra en un documento debido a errores humanos,
negligencia o falta de destreza con las herramientas, como pueden ser rutas a servidores internos, información
oculta por el formato, etc. Un ejemplo de datos perdidos podría darse si un usuario copia la url que apunta a
uno de sus servidores internos en un documento de texto. A continuación, el usuario modifica el texto de la
url en el documento, pero en el hipervínculo creado por la herramienta la dirección a la que apunta es la del
servidor interno [1].
La figura 1 sintetiza la relación entre metadatos, información oculta y datos perdidos. Los metadatos
pueden convertirse en datos perdidos al realizar una mal gestión o una mala conversión de formato. A su vez
los datos perdidos pueden convertirse en metadatos cuando un documento subido a un servidor web es
indexado por una araña.
Los metadatos también pueden convertirse en información oculta si una imagen es incrustada en un
documento y los metadatos de la imagen no pueden ser manipulados por el editor de texto, este pueda que
incluya la información oculta al final del documento. Pero la información oculta puede convertirse en
metadatos si existirá una aplicación que editar y almacenar esa información.
La información oculta puede convertirse en datos perdidos, ya sea por una mala gestión o por objetos
incrustados. Finalmente, los datos perdidos podrían también convertirse en información oculta al manejar
dichos objetos incrustados.

Figura 1: Metadatos - Información Oculta - Datos Perdidos

68
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

III. DISEÑO METODOLÓGICO


FOCA (Fingerprinting Organizations with Collected Archvives) es una herramienta utilizada
principalmente para encontrar metadatos e información oculta en los documentos que se examina. Estos
documentos pueden estar en páginas web y con FOCA se pueden descargar y analizar. [2].

Con FOCA se realizó la búsqueda y descarga de todos los archivos alojados en los sitios web de las
universidades de Nicaragua. FOCA es capaz de analizar distintos documentos, siendo los más comunes:
Microsoft Office, Open Office y ficheros PDF.

Los documentos se buscan utilizando tres buscadores de internet: Google, Bing y DuckDuckGo. Al sumar
estos tres buscadores da como resultado un gran número de documentos. Luego de haber descargado todos
los archivos, se procedió a clasificar el tipo de documento descargado en cada una de las universidades,
agrupándolos en: PDF, Power Point, Word, Excel. Esto con el fin de poder extraer los metadatos de manera
agrupada y lograr obtener información ordenada.

FOCA luego de extraer los metadatos, también nos facilita la unión de los mismos para lograr obtener
información tal como lograr reconocer qué documentos han sido creados desde el mismo equipo, qué
servidores y que usuarios se pueden inferir de ellos.
IV. ANÁLISIS DE FUGA DE INFORMACIÓN EN METADATOS DE DOCUMENTOS DE LAS UNIVERSIDADES
NICARGAGUENSES

En Nicaragua existen 50 universidades legalmente establecidas y reconocidas por el Consejo Nacional


de Universidades (CNU). [3]En este estudio se indago que solo el 50% de las universidades poseen un sitio
web en línea y con información pública. Está información pública hace referencias y la información
relacionada con las actividades de las universidades, que va desde su misión y visión hasta noticias del ámbito
universitario.
Los administradores de los sitios y todo aquel personal que tiene un permiso para subir información a los
sitios web de estas universidades, no se está percatando de que están colocando información privada en un
ambiente público. Pero esta fuga de información se da por los metadatos que no son correctamente
manipulados y no son limpiados antes de subir los documentos o imágenes a sus servidores web. Entre la
información privada más relevante que se está fugando de las universidades se encuentran: Usuarios, Nombre
de Folders, software utilizados, nombres de impresoras y correos electrónicos.
Los documentos electrónicos que fueron descargados y analizados de los sitios web de las universidades
fueron: PDF, WORD, POWER POINT Y EXCEL. Estos formatos de documentos fueron seleccionados
debido a que son los archivos más comunes encontrados en los sitios web de las universidades y los que no
poseen un borrado automático de los metadatos a la hora de ser subidos a las páginas webs. No obstante, de
las 25 universidades analizadas, solo en 15 de ellas se logró recopilar los documentos electrónicos antes
mencionados, obteniendo un total de 2659.
Tabla 1 UNIVERSIDADES SELECCIONADAS PARA EL ANÁLISIS DE METADATOS

UNIVERSIDADES PÚBLICAS Y PRÍVADAS DE NICARAGUA


1 UNIVERSIDAD NACIONAL DE INGENIERIA (UNI)
2 UNIVERSIDAD NACIONAL AUTÓNOMA DE NICARAGUA (UNAN-MANAGUA)
3 UNIVERSIDAD NACIONAL AGRARIA (UNA)
4 UNIVERSIDAD CENTROAMERICANA (UCA)
5 UNIVERSIDAD POLITECNICA DE NICARAGUA (UPOLI)
6 UNIVERSIDAD AMERICANA(UAM)
7 UNIVERSIDAD THOMAS MORE (UTM)
8 UNIVERSIDAD DE TECNOLOGIA Y COMERCIO(UNITEC)
9 UNIVERSIDAD NICARAGUENSE DE CIENCIAS Y TECNOLOGIAS (UCYT)
10 UNIVERSIDAD EVANGELICA NICARAGUENSE "MARTIN LUTHER KING JR"
11 UNIVERSIDAD HISPANOAMERICANA (UHISPAM)
12 UNIVERSIDAD INTERNACIONAL PARA EL DESARROLLO SOSTENIBLE (UNIDES)
13 UNIVERSIDAD MARTIN LUTERO (UML)

69
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

14 UNIVERSIDAD PAULO FREIRE (UPF)


15 UNIVERSIDAD CRISTIANA AUTONOMA DE NICARAGUA (UCAN)
16 UNIVERSIDAD CENTRAL DE NICARAGUA(UCN)
17 KEISER UNIVERSITY
18 UNIVERSIDAD DE CIENCIAS COMERCIALES (UCC)
19 UNIVERSIDAD DEL VALLE (UNIVALLE)
20 UNIVERSIDAD DE MANAGUA(UdeM)
21 UNIVERSIDAD DE LAS AMERICAS (ULAM)
22 AMERICAN COLLEGE
23 UNIVERSIDAD IBEROAMERICANA DE CIENCIA Y TECNOLOGIA (UNICIT)
24 UNIVERSIDAD TECNICA DE COMERCIO (UTC)
25 UNIVERSIDAD NICARAGUENSE DE ESTUDIOS HUMANISTICOS (UNEH)

EXCEL
POWER POINT 2%
12%

WORD
11%

PDF
75%

PDF WORD POWER POINT EXCEL

Figura 2 Documentos Públicos Descargados de las Universidades de Nicaragua

Con la figura anterior podemos notar que, del total de documentos descargados, los que predominan son
los archivos PDF con 1984, seguidos de archivos Power Point, con una cantidad de 322, así mismo
encontramos 293 archivos de Word y en último lugar 60 archivos de Excel. Esta primera gráfica nos indica
que las universidades de Nicaragua alojan en sus servidores web mayor cantidad de archivos digitales en
PDF que cualquier otra extensión de ofimática.
En este punto y por confidencialidad vamos a hacer referencia a las universidades por números del 1 al
15 para mostrar los siguientes hallazgos.
La siguiente información se obtuvo al realizar un análisis de los metadatos de los 2659 archivos
descargados de las 15 universidades. Cabe aclarar que, por sigilo a la información encontrada, la siguiente
tabla NO hace referencia en orden al mostrado en la tabla 1.
Tabla 2 Metadatos Extraídos de 15 Universidades de Nicaragua

15 DOCUMENTOS USUARIOS FOLDERS SOFTWARE IMPRESORAS E-MAILS


UNIVERSIDADES ANALIZADOS
DE NICARAGUA
UNI-1 758 354 169 111 18 0
UNI-2 183 67 67 20 1 0
UNI-3 478 100 27 58 0 0
UNI-4 850 380 671 128 20 6

70
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

UNI-5 150 53 29 33 0 0
UNI-6 60 2 0 14 0 0
UNI-7 19 8 0 7 0 0
UNI-8 18 11 0 7 0 0
UNI-9 40 10 0 8 0 0
UNI-10 23 8 0 7 0 0
UNI-11 41 11 2 14 0 0
UNI-12 27 2 0 6 0 0
UNI-13 2 2 0 2 0 0
UNI-14 6 0 0 6 0 0
UNI-15 4 1 0 3 0 0
TOTAL 2659 1009 965 424 39 6

2%
0%
17%

41%

40%

USUARIOS FOLDERS SOFTWARE IMPRESORAS E-MAILS

Figura 3 Metadatos Extraídos de las 15 Universidades de Nicaragua

Usuarios: Nombres de usuarios que realizaron modificaciones en alguno de los documentos y/o usuarios
de inicio de sesión en las maquinas donde se editaron los documentos.
Folders: Nombre de las carpetas o folders donde fueron guardados los archivos, lo cual brinda rutas de
almacenamiento.
Software: Nombres de software utilizados para la edición y modificación de los archivos analizados.
Impresoras: Nombres de las impresoras locales o en red en donde se llego a imprimir los documentos
analizados.
Emails: Direcciones de correos electrónicos que se lograron extraer de los documentos analizados.
Es notoria la cantidad de nombres de usuarios (41%) que lograron ser extraídos de los documentos
públicos, así como los nombres de los folders (40%) que brindan información de rutas donde están
almacenados los documentos o donde fueron editados y además se obtuvo un 17% de nombres de software
con los cuales fueron editados y modificados los archivos antes de ser subidos a los sitios web.
En tres de las quince universidades se logró extraer mayor cantidad de usuarios, UNI-4 con 380 usuarios
extraído por medio de sus metadatos. La UNI-1 con 354 usuarios y la UNI-3 con 100 usuarios.
Ahora vamos a centrarnos en las tres universidades anteriores, ya que estás son de las que se lograron
encontrar mayor información.

71
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

La siguiente información está relacionada con la Universidad 4.


Tabla 3 Archivos y Metadatos extraídos de la Universidad 4

PDF WORD POWER POINT EXCEL TOTAL ARCHIVOS USUARIOS FOLDERS SOFTWARE IMPRESORA EMAIL

565 127 128 30 850 380 671 128 20 6

POWER EXCEL SOFTWA IMPRES E-MAILS


POINT 4% RE ORAS 0% USUARI
15% 11% 2% OS
31%
WORD
15%
PDF
66% FOLDERS
56%
Figura 4 Total archivos descargados UNI4 Figura 5 Total metadatos extraidos UNI4

De manera particular con la Universidad 4, en las gráficas anteriores podemos notar que el archivo con
mayor incidencia en el sitio web es con extensión (.pdf), del cual se obtuvo un 66%. También se observa
que, al realizar la extracción de los metadatos, la mayor información obtenida se basa en los folders con un
56% y le sigue los usuarios con un 31%.
En la tabla que se muestra a continuación, se logra identificar que la mayoría de usuarios obtenidos a la
hora de extraer los metadatos surgen de los archivos pdf y a su vez estos también generaron la mayor cantidad
de software. Luego tenemos que tanto los archivos Word y PowerPoint permitieron extraer la misma cantidad
de usuarios, pero en los archivos Word se logró encontrar un mayor volumen de Folders que en los
encontrados en PowerPoint.

471
500
450
400
350
300
250 188
152
200 99 99 109
150
100 30
50
9 3 7 10 2 0 0 0 20 0 4 2 0
0
Usuarios Folders Software Impresoras E-mails
Pdf 152 9 109 0 0
Word 99 471 7 0 4
Powerpoint 99 188 10 0 2
Excel 30 3 2 20 0

Figura 6 Metadatos particulares obtenidos de los archivos ofimáticos UNI 4

72
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

La siguiente información está relacionada con la Universidad 1.


Tabla 4 Archivos y Metadatos extraídos de la Universidad 1

PDF WORD POWER POINT EXCEL TOTAL ARCHIVOS USUARIOS FOLDERS SOFTWARE IMPRESORA EMAIL

532 131 67 28 758 364 169 111 18 0

POWER EXCEL IMPRESOR


SOFTWAR AS
POINT 4%
WORD E 3%
9%
17% 17%

USUARIOS
FOLDERS 54%
PDF
26%
70%

Figura 7 Total archivos descargados UNI 1 Figura 8 Total metadatos extraídos UNI 1

En la Universidad 1, en las gráficas anteriores se logra observar que el archivo con mayor incidencia en
el sitio web es el pdf con un 70%, y le sigue un 17% de los archivos Word. En la figura 8 los metadatos
extraídos predominantes son los Usuarios con un 54%, los folders con un 26% y se logró obtener Software
que representa un 17%.

En la tabla que se muestra a continuación, se logra apreciar que tanto en los archivos pdf como en los
archivos Word es donde se obtuvo la mayoría de usuarios. Los pdf brindaron 92 software identificados y los
archivos de Excel pudieron brindar 17 nombres de impresoras.

173
180
160
140
120 104
92
100 71
80 55 50
60 43
40 22 17
5 5 12 2 0 0 1 0 0 0 0
20
0
Usuarios Folders Software Impresoras E-mails
Pdf 173 43 92 0 0
Word 104 71 5 0 0
PowerPoint 55 50 12 1 0
Excel 22 5 2 17 0

Figura 9 Metadatos particulares obtenidos de los archivos ofimáticos UNI 1

73
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

La siguiente información está relacionada con la Universidad 3.


Tabla 5 Archivos y Metadatos extraídos de la Universidad 3

PDF WORD POWER POINT EXCEL TOTAL ARCHIVOS USUARIOS FOLDERS SOFTWARE IMPRESORA EMAIL

464 0 14 0 478 100 27 58 0 0

POWER
POINT
SOFTWARE
3%
31%

USUARIOS
54%

PDF FOLDERS
97% 15%

Figura 10 Total archivos descargados UNI 3 Figura 11 Total metadatos extraídos UNI 3

La Universidad 3 muestra que el 97% de sus archivos alojados en la web son pdf y solamente un 3% son
archivos power point, no lográndose descargar ningún otro tipo de archivo para su análisis. De todos los
archivos descargados y analizados, se obtuvo un 54% de usuarios, 15% de folder y un 31% de software. En
esta ocasión no se logró extraer información de impresoras ni de email.
En la tabla se logra observar que a raíz que la mayoría de archivos encontrados son pdf, de los 100
usuarios que lograron ser extraídos, 92 están asociados a pdf y solo 8 a power point. Así mismo se extrajo
57 software de los pfd y solo 1 de power point.

92
100
90
80
70 57
60
50
40
30 10 9
20 8
10 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0
0
Usuarios Folders Software Impresoras E-mails
Pdf 92 10 57 0 0
Word 0 0 0 0 0
Powerpoint 8 9 1 0 0
Excel 0 0 0 0 0

Figura 12 Metadatos particulares obtenidos de los archivos ofimáticos UNI 3

74
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. CONCLUSIONES
El documento digital con mayor presencia en los sitios web de las universidades de Nicaragua es el PDF,
el que a su vez es el que expone la mayor información privada de manera pública, lo cual genera un alto
grado de inseguridad, si la información obtenida del análisis de los metadatos es utilizada para realizar test
de penetración o ataques cibernéticos.
Se logró identificar fácilmente nombres de software con los cuales fueron creados y modificados los
archivos públicos alojados en los sitios web de las universidades. Información que no debería estar expuesta
al público, ya que son softwares propietarios que deben de conocerse solo a nivel internos de las
universidades.
El permitir la identificación de los nombres de las impresoras, las cuales muchas de ellas están en red,
hace que un posible atacante pueda suponer un esquema de red y poder utilizar esa información para realizar
distintos ataques dentro de las universidades.
El solo hecho de haber encontrado toda esta cantidad de información por medio de la extracción de los
metadatos, se concluye que las universidades de Nicaragua no tienen una buena práctica de eliminación de
lo metadatos dentro de los documentos digitales que serán alojado de manera pública en sus sitios web.
VI. RECOMENDACIÓNES
Es recomendable que existan políticas internas, que obliguen a todos los involucrados en el proceso de
subida de un archivo digital al sitio web de las universidades, a realizar un borrado de los metadatos, ya sea
un proceso manual o automático.
Se recomienda que para evitar la falta de pericia en el borrado de los metadatos de los archivos que
vayan a ser alojados en el sitio web, integrar una herramienta automática en el servicio web, el cual borre de
manera transparente para el usuario los metadatos asociados a todos los archivos digitales.
.
VII. REFERENCIAS BIBLIOGRÁFICAS

[1] C. Alonso, Pentesting con FOCA, España: 0xword, 2016.


[2] elevenpaths, «[Link],» 5 10 2017. [En línea]. Available:
[Link]
[3] cnu, «cnu,» 20 3 2015. [En línea]. Available: [Link]
cnu/universidades-legalmente-establecidas/.

75
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Segmentación en lesiones de piel utilizando


redes neuronales convolucionales y campos
aleatorios condicionales

Anthony Segura Chaves


Tecnológico de Costa Rica, Costa Rica
ansechaves@[Link]

Efrén Jiménez Delgado


Tecnológico de Costa Rica, Costa Rica
ejimenezdelgado@[Link]

Resumen ​— La segmentación automática de imágenes dermatoscópicas, es un proceso fundamental en el


desarrollo de sistemas de diagnóstico asistido por ordenador en la clasificación de diversos cánceres de piel.
Las redes neuronales convolucionales son muy efectivas en la segmentación de imágenes relacionadas a
enfermedades de la piel, aunque no siempre generan segmentaciones con el nivel detalle requerido en el campo
médico. En este documento se presentará un diseño para el modelado de campos aleatorios condicionales, que
pueda contribuir en el mejoramiento del nivel de detalle en las segmentaciones con redes neuronales en datos
dermatoscópicos en cáncer de piel.

Palabras clave;segmentación semántica, dermatología, imágenes médicas, visión artificial, aprendizaje


automático, U-NET, CNN, redes neuronales, cáncer de piel.

I. INTRODUCCIÓN
El cáncer de piel se encuentra entre las enfermedades cancerígenas más comunes y mortales en el
mundo, siendo el melanoma la variante más agresiva. Se detectan cerca de 100.000 nuevos casos y 9.000
muertes cada año solo en Estados Unidos.
A pesar de su tasa de mortalidad el melanoma es altamente curable si se detecta y es tratado en las
primeras etapas, por este motivo es importante el desarrollo de métodos de detección temprana de esta
enfermedad. Una herramienta automática que realice un diagnóstico preciso permitiría a las personas sin
acceso a un dermatólogo revisar sus manchas y lunares, reduciendo drásticamente las tasas de muerte por
este cáncer. El rápido avance de los algoritmos de aprendizaje automático y la gran cantidad de imágenes
dermatoscópicas anotadas disponibles hacen posible el desarrollo de sistemas de diagnóstico
automatizado de melanoma. Las redes neuronales convolucionales han demostrado ser sumamente
efectivas en las tareas de segmentación y diagnóstico llegando incluso a superar a los dermatólogos
detectando manchas cancerosas [1][2]. La segmentación es un paso fundamental en un sistema de

76
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

diagnóstico automático y consiste en identificar los píxeles de la imagen en donde se encuentra la mancha
de piel, esta tarea es sumamente difícil de resolver de forma automática debido a la gran variedad de
formas y colores que presentan las manchas de piel como se puede observar en la figura 1.

II. MÉTODOS

Este trabajo propone una herramienta basada en redes neuronales convolucionales y campos
aleatorios condicionales para la segmentación automática de imágenes dermatoscópicas. Los campos
aleatorios condicionales totalmente conectados [3] (CRF por sus siglas en inglés) son utilizados
como mecanismo de post procesado para mejorar el nivel de detalle de la segmentación.
A. Datos
Para el entrenamiento y validación del modelo se utilizaron los datos proporcionados por el
International Skin Imaging Collaboration (ISIC) 2018 Challenge [4] [5]. Este dataset contiene 3694
imágenes dermatoscópicas de alta resolución con sus respectivas anotaciones (máscaras de
segmentación) se divide en 3 subdatasets para el entrenamiento, validación y pruebas con 2594,
100 y 1000 imágenes respectivamente.

Figura 1. Ejemplo de las imágenes de entrenamiento y

máscaras de segmentación del dataset utilizado.

B. Arquitectura de la red neuronal


Se utilizó la arquitectura U-Net [6] para realizar segmentación de las imágenes, esta
arquitectura fue diseñada para la segmentación de imágenes médicas y está compuesta solo por
capas convolucionales lo que reduce el número de parámetros de entrenamiento, la Fig 2 muestra
el diagrama de la arquitectura. La red recibe una imágen dermatoscópica de 256x256 píxeles y produce
una matriz de probabilidades de las mismas dimensiones

77
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 2. Arquitectura U-Net.

Entrenamiento
Las redes se entrenaron desde cero, minimizando la diferencia entre las máscaras generadas por la
red neuronal y las máscaras de entrenamiento mediante la función de optimización Adam [9]. Se
ajustó el ritmo de aprendizaje 10 −5 y el "batch size" (cantidad de imágenes por ciclo de entrenamiento)
en 2 Se ejecutaron 2 sesiones de entrenamiento con diferentes subconjuntos de datos con 70
iteraciones por sesión. Los modelos fueron validados al final de cada iteración con un dataset local
y los mejores se guardaron para ser utilizados en un ensamble más adelante.

Post procesado y ensemble


Para mejorar el resultado final se creó un ensamble con las 3 redes neuronales que obtuvieron mejores
resultados con los datos de validación, este ensamble consiste en promediar las salidas de estas
redes en un único resultado, este resultado se puede interpretar como un mapa de probabilidades,
posteriormente se pasa el mapa de probabilidades junto a la imagen original (imagen de entrada
para las redes neuronales) a un modelo CRF para producir la máscara de segmentación mejorada.
Fig 3 describe gráficamente este proceso.

78
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 3. Ilustración de la etapa de post-procesado.

III. RESULTADOS
Para tener una evaluación objetiva de los modelos desarrollados y poder comparar con otros trabajos
se utilizaron los datos y herramientas de evaluación provistas por el ISIC Challenge 2018. El
proyecto ISIC organiza una competencia anual de aprendizaje automático con 3 categorías:segmentación,
detección de atributos y diagnóstico, donde los participantes pueden probar sus modelos y comparar
sus resultados con los demás mediante un sistema de ranking en línea. La calidad de las máscaras de
segmentación se mide utilizando el índice Jaccard también conocido como la intersección sobre la
unión. Los organizadores de la competencia decidieron agregar una penalizaciones la métrica la
cual consiste en asignar un cero como calificación a las máscaras que consigan un valor menor a 0.65
en el índice Jaccard. La calificación final se obtiene promediando los resultados de todas las máscaras.
|A⋂B |
Jaccard (A, B) = |A⋃B |

Para probar el modelo propuesto y la efectividad del postprocesado con CRF se compararon los
resultados de 6 redes distintas con y sin el post procesado en el dataset de validación (100
imágenes), los resultados obtenidos se muestran en la Tabla I.

79
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

TABLA I COMPARACIÓN DEL RENDIMIENTO EN EL DATASET DE VALIDACIÓN EN LÍNEA DE LOS MODELOS SIN POST PROCESADO CONTRA EL
POSTPROCESADO PROPUESTO.

Modelo Jaccard Modelo Jaccard

U-Net 1 0.693 U-Net 1 + CRF 0.766

U-Net 2 0.701 U-Net 2 + CRF 0.756

U-Net 3 0.712 U-Net 3 + CRF 0.752

U-Net 4 0.​715 U-Net 4 + CRF 0.742

U-Net 5 0.671 U-Net 5 + CRF 0.682

U-Net 6 0.703 U-Net 6 + CRF 0.749

- - Ensamble con CRF 0.​78

El modelo propuesto (ensamble usando post procesado con CRF) obtuvo una calificación de 0.78 en el
dataset de validación y 0.754 en el dataset final de pruebas con 1000 imágenes, logrando la posición
31/112 en el ranking final de la categoría segmentación.

IV. IMPLEMENTACIÓN
Todos los experimentos se implementaron en Python 3 usando Keras con Tensorflow como back-end
en una computadora de escritorio con un procesador IntelR©CoreTM i5-2310, 8 GB de RAM y una
tarjeta gráfica GeForce GTX 950 con 2GB de VRAM

V. CONCLUSIONES
El método de post procesado con campos aleatorios condicionales logra una mejora significativa
en la calidad de la segmentación con redes neuronales como se observa en la sección de resultados,
además, con el ensamble propuesto se logran resultados bastantes satisfactorios en los datos de
validación y prueba, logrando una buena posición en el ranking, sin embargo se considera que se
pudo obtener mejores resultados realizando aumento de datos durante la etapa de entrenamiento o
utilizando una arquitectura de red neuronal más profunda, estos detalles se tendrán en consideración en
futuros trabajos

VI. REFERENCIAS BIBLIOGRÁFICAS


1] A. Esteva, B. Kuprel, R. A. Novoa, J. Ko, S. M. Swetter, H. [Link], and S. Thrun,
“Dermatologist-level classification of skincancer with deep neural networks,”Nature, vol. 542,
pp. 115–, Jan.2017. [Online]. Available: ​[Link]
[2] H. A. Haenssle, C. Fink, R. Schneiderbauer, F. Toberer,T. Buhl, A. Blum, A.
Kalloo, A. B. H. Hassen, L. Thomas,A. Enk, L. Uhlmann, R. study level I, and
level II Groups,“Man against machine: diagnostic performance of a deeplearning
convolutional neural network for dermoscopic melanomarecognition in comparison to 58
dermatologists,”Annals ofOncology, p. mdy166, 2018. [Online]. Available:
[Link]
[3]
[Link]ähenbü[Link],“Efficientinferenceinfullyconnectedcrfswithgaussianedgepotentials,”inAd
vances in Neural Information Processing Systems 24,J. Shawe-Taylor, R. S. Zemel, P.
L. Bartlett, F. Pereira,[Link],[Link],Inc.,2011, pp. 109–117.

80
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[Online]. Available:
[Link]
[Link]
[4] N. C. F. Codella, D. Gutman, M. E. Celebi, B. Helba, M. [Link], S. W. Dusza, A.
Kalloo, K. Liopyris, N. K. Mishra,H. Kittler, and A. Halpern, “Skin lesion analysis toward
melanomadetection: A challenge at the 2017 international symposium onbiomedical imaging
(isbi), hosted by the international skin imagingcollaboration (ISIC),”CoRR, vol. abs/1710.05006,
2017. [Online].Available: ​[Link]
[5] P. Tschandl, C. Rosendahl, and H. Kittler, “The HAM10000 dataset,a large collection of
multi-source dermatoscopic images of commonpigmented skin lesions,”Sci. Data, vol. 5, p. 180161,
2018.
[6] [Link],[Link],[Link],“U-net:Convolutional networks for biomedical
image
segmentation,”CoRR,​[Link]/1505.04597,2015.[Online].Available:[Link]
[7] V. Nair and G. E. Hinton, “Rectified linear units improve restrictedboltzmann machines,”
inProceedings of the 27th InternationalConference on International Conference on Machine
Learning,ser. ICML’[Link]: Omnipress, 2010, pp. 807–814. [Online].Available:
[Link]
[8] V. Badrinarayanan, A. Kendall, and R. Cipolla, “Segnet: A deepconvolutional
encoder-decoder architecture for image segmentation,”CoRR, vol. abs/1511.00561, 2015.
[Online]. Available: ​[Link]
[9] D. P. Kingma and J. Ba, “Adam: A method for stochasticoptimization,”CoRR, vol.
abs/1412.6980, 2014. [Online]. Available:[Link]

81
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Análisis de la Usabilidad de una Aplicación


Móvil dirigida a Niños en Edad Pre-Escolar:
Caso de Estudio “Kinder”

Usability Analysis of a Mobile Application for


Pre-School Aged Children: Case Study
“Kinder”
Jeyner Téllez Medrano
Universidad Nacional de Ingeniería, Nicaragua
Jeyner_0729@[Link]

Clarence Montenegro Gallegos


Universidad Nacional de Ingeniería, Nicaragua
[Link]@[Link]

Anayanci López-Poveda
Universidad Nacional de Ingeniería, Nicaragua
[Link]@[Link]

Resumen — Las aplicaciones informáticas para resolver problemas/necesidades de sectores amplios de la


población pueden tener gran impacto social, pero conllevan muchos retos; siendo uno de estos lograr
comprender y satisfacer al usuario meta. En estos casos es muy relevante analizar la usabilidad del software con
fines de mejorar la experiencia del usuario y la efectividad de la aplicación. Este artículo resume las principales
experiencias sobre un análisis de usabilidad, cuya particularidad es que los participantes fueron niños en edad
pre-escolar usando la aplicación móvil educativa "Kinder". Siguiendo un enfoque cualitativo se realizó el estudio
con 7 niños y dos profesores; los pasos seguidos y resultados obtenidos fueron documentados. Los hallazgos
permiten obtener insumos valiosos para la mejora de la aplicación y comprender mejor las expectativas de los
niños.

Palabras clave; usabilidad; experiencia de usuario; niños; aplicación móvil educativa.


Abstract — Software applications to solve problems/needs of large segments of the population can have a great
social impact, but they entail many challenges; being one of them to understand and satisfy the target user. In
these cases, it is important to analyze the software usability for a further improvement in user experience and
effectiveness of the application. This article summarizes the main experiences on a usability analysis, whose
particularity is that the participants were children in preschool age using the "Kinder" educational mobile
application. Following a qualitative approach, the study was conducted with 7 children and two teachers; the
steps followed and results obtained were documented. The findings represent valuable inputs to improve the
application and to understand better the expectations of children.

Keywords; usability; user experience; children; mobile educational application.

82
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. INTRODUCCIÓN
Con el fin de desarrollar una aplicación móvil que contribuyera a la educación de niños en edad pre-
escolar a través de una experiencia de usuario adecuada, se desarrolló la primera versión de la aplicación
móvil Kinder, desarrollada para dispositivos Android [1]. En particular, en dicha aplicación se perseguía el
diseño de una interfaz atractiva y adecuada para niños; como se sabe, el diseño de la interfaz de cualquier
software es una tarea fundamental por la importancia que esta representa para el usuario final [2].
Adicionalmente, en esta aplicación se implementaron otras estrategias que mejoraran la usabilidad de la
aplicación, incluyendo: (i) el uso de texto a voz (“Text To Speech”) para enseñar vocales y números (la
aplicación hace uso intensivo de esta característica para orientar al usuario sobre los ejercicios a realizar,
brindarle realimentación de cómo está haciendo el ejercicio, y para decirle al usuario qué objeto, letra o
número está viendo o tocando; (ii) la selección de colores e imágenes atractivas para niños usadas en la
aplicación; (iii) la creación de actividades con un nivel de dificultad adecuado para los niños del rango de
edad meta [1]. La aplicación está dirigida a niños en edad pre-escolar, y con fines de lograr el objetivo de la
misma es muy importante evaluar su usabilidad para poder habilitar el proceso de mejora continua que
permita alcanzar una efectividad y experiencia de usuario satisfactoria.
Obtener un diagnóstico que brinde información útil respecto a la facilidad de uso y la satisfacción de los
usuarios de una aplicación informática es particularmente importante cuando se trabaja con un producto
dirigido a niños. Esta es una forma de subsanar limitaciones en el proceso de desarrollo derivados de las
particularidades del tipo de usuario, por ejemplo: (i) la dificultad de obtener requerimientos iniciales
concretos de un niño a tan temprana edad; (ii) los supuestos que el equipo de desarrollo implementa porque
según su experiencia con usuarios, en otros rangos de edades, han sido exitosas, pero que no necesariamente
lo serán con niños; entre otras. Adicionalmente, analizar la usabilidad con niños puede requerir mayores
cuidados ya que influyen factores como la forma en la que aprenden, sus gustos, el grado de distracción, su
facilidad para seguir indicaciones, la motivación para ejecutar las tareas e incluso cuestiones como la
ergonomía. [3]
Dada la importancia de este tema, el impacto que los resultados pueden tener para el futuro de la
aplicación, y buscando ser coherentes respecto a atender adecuadamente las necesidades de los usuarios de
la misma, se decidió desarrollar un análisis de la usabilidad. Este análisis es realizado con niños en edad pre-
escolar lo cual tiene implicaciones en particular para el diseño de este estudio.
II. USABILIDAD Y EXPERIENCIA DE USUARIO
Existen múltiples definiciones de usabilidad en el campo informático, el avance en las innovaciones
tecnológicas ha hecho que distintas comunidades con distintas áreas de interés prioricen algunos criterios
sobre otros al analizar este tema, e incluso hay una falta de consenso sobre la definición de usabilidad como
constructo y los criterios que deberían usarse para su medición [4].
Con fines de guiar el análisis que se realizará en este trabajo, presentamos algunas definiciones de
usabilidad que se corresponden con el objetivo que se persigue, así también presentamos algunos términos
complementarios que son útiles en el contexto de este trabajo:
 Usabilidad: La capacidad de ser utilizado fácilmente y efectivamente. [5] [4]
 Usabilidad: Fácil de aprender, eficiente, con pocos errores, fácil de recordar, y subjetivamente
placentero [6][4]
 Usabilidad: Grado al cual un sistema, producto o servicio puede ser utilizado por usuarios
especificados para alcanzar metas especificadas con efectividad, eficiencia y satisfacción en un
contexto de uso especificado [7][4]. En consecuencia, también es importante aclarar los siguientes
conceptos:
o Efectividad: Precisión y completitud con la cual los usuarios alcanzan las metas
especificadas. [7]
o Eficiencia: Recursos usados en relación a los resultados alcanzados; ej: tiempo, esfuerzo
humano, costos y materiales. [7]
o Satisfacción: Grado al cual las respuestas físicas, cognitivas y emocionales del usuario que
resultan del uso del sistema, producto o servicio cumplen con las necesidades y expectativas
del usuario. [7]
Así también es importante, para este trabajo, definir un término relacionado a la usabilidad, que ha tenido
gran aceptación en el mundo del desarrollo de software y es la experiencia de usuario:
 Experiencia de Usuario: Percepciones y respuestas del usuario que resultan del uso y/o uso
anticipado de un sistema, producto o servicio. Esto incluye emociones, creencias, preferencias,
percepciones, confort, comportamientos, y logros que ocurren antes, durante y después del uso. La

83
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

experiencia del usuario es una consecuencia de la imagen de marca, presentación, funcionalidad,


desempeño del sistema, comportamiento interactivo, y capacidades de asistencia de un sistema,
producto o servicio. Esta también es resultado del estado interno y físico del usuario producto de
experiencias previas, actitudes, habilidades y personalidad, y del contexto de uso. [7]
La usabilidad y la experiencia de usuario son conceptos que, como se observa pueden tener distintas
interpretaciones o formas de percibirse y analizarse. Aún más, su uso en la práctica en evaluaciones de
software con frecuencia es implementado con enfoques informales y/o poco/nada estructurados; aunque
también hay extensa investigación y propuestas de modelos y otros tipos de artefactos que describen estos
conceptos con heurísticas que pueden permitir el análisis desde un enfoque más formal y estructurado. Para
este trabajo se considerará un enfoque intermedio, es decir que permita la flexibilidad para trabajar con niños,
pero al mismo tiempo tengamos una referencia que oriente el trabajo de análisis; nos asistiremos del
compendio de criterios de usabilidad recopilados por [8] que se listan en la Tabla I. En la Tabla I se muestran
en letra cursiva y encerradas en llaves ([ejemplo]) algunas que no se consideraron aplicables o relevantes
por el tipo de aplicación.

TABLA I HEURÍSTICAS DE EVALUACIÓN DE USABILIDAD DE APLICACIONES MÓVILES [8]


Visibilidad del estatus del sistema Interacción física y ergonomía
Armonización entre el sistema y el mundo real. Convenciones estéticas, de privacidad y sociales
Control del usuario y libertad Legibilidad y densidad de información
Consistencia y estándares Mantener su modelo de navegación simple
Prevención de errores Hay una necesidad
Reconocer antes que recordar [Provee vistas sin obstrucciones que son apropiadas para la
situación actual de los usuarios]
Diseño estético y minimalista Salvaguarda la seguridad legal de los jugadores
Ayuda al usuario a reconocer, diagnosticar, y recuperarse de [La navegación del mundo real toma en cuenta el tipo de juego
errores. y es lógica]
Ayuda y documentación Piensa modular
La representación audio-visual soporta el juego [Permite la comunicación basada en escritorio]
Interacción con el usuario placentera y respetuosa [Lucha contra la corriente]
Provee realimentación constante y apropiada. Manipulación directa / Ve y apunta
Facilidad de introducir datos, legibilidad de pantalla [Capacidad de ser modelo]
Flexibilidad y eficiencia de uso Estabilidad percibida

III. CONSIDERACIONES ESPECIALES PARA REALIZAR PRUEBAS DE USABILIDAD CON NIÑOS


Diversos autores han analizado las particularidades de las pruebas de usabilidad con niños. Algunas de
las particularidades a tomar en cuenta cuando se trabaja con niños fueron derivadas de [3] y se listan a
continuación:
 La importancia de realizar el perfil correcto de los usuarios de la aplicación; ya que se demostró que
las características, habilidades y percepciones de los niños difieren en gran medida con la de los
adultos.
 La importancia de la observación como fuente para recibir información no verbal de los niños (tal
como nerviosismo, alegría al cumplir una tarea, limitantes físicas de realizar una tarea, etc.)
 La importancia de contar con un facilitador adecuado que pueda estimular adecuadamente a los niños
para realizar las actividades previstas.
Las particularidades previamente mencionadas tienen implicaciones en la estrategia a seguir para la
evaluación de la usabilidad.
IV. APLICACIÓN MÓVIL KINDER
La aplicación está dirigida a niños de preescolar que están iniciando sus estudios y no saben leer o están
empezando a aprender, por tanto, hace uso del texto a voz para escuchar la pronunciación de vocales,
números y palabras [1]. Con fines de resumir las funcionalidades principales de la aplicación Kinder (caso
de estudio de este trabajo) se muestran a continuación el tipo de interfaces que incluye en la Fig. 1 a la 4.
La Fig. 1 muestra el menú principal, en ese se encuentran todos los enlaces a las áreas de aprendizaje y
pruebas, de esta manera se evita tener que navegar por varias pantallas para empezar a aprender o practicar
[1].

84
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 1. Menú de la aplicación, se muestran todas las opciones Figura 2 Área de aprendizaje de vocales.
a las que el usuario puede acceder.

Figura 3. Área de aprendizaje de números Figura 4. Prueba 4 de la aplicación.

Las Fig. 2 y 3 muestran la sección de aprendizaje. La primera es donde se enseñan las vocales y en la
otra se enseñan los números. Ambas funcionan de forma similar, se muestra la imagen de la vocal o el
número, al ser presionada la imagen el usuario escucha el nombre de la vocal o el número. Además, cada
vocal está asociada a una imagen (objeto) y cada número se muestra gráficamente representado con los dedos
de las manos; estas imágenes al ser tocadas por el usuario también causan que se reproduzca su nombre. [1]
La Fig. 4 muestra una de las cuatro pruebas de la Sección de Pruebas, estas involucran completado de
palabras y selección de respuesta correcta. Detalles adicionales pueden verse en [1].
V. DISEÑO METODOLÓGICO
Siguiendo un enfoque cualitativo para realizar esta investigación aplicada; ya que se tienen en cuenta las
consideraciones especiales para realizar pruebas de usabilidad con niños (ver sección II), se valoró que es
más beneficioso el enfoque cualitativo dadas: las limitaciones que pueden surgir al trabajar con niños y la
naturaleza más subjetiva del tipo de tópico siendo abordados (usabilidad y experiencia de usuario).
Los aspectos principales que se realizaron para este análisis de usabilidad se describen a continuación:
A. Perfil de usuario y tamaño de la muestra.
Los usuarios para quienes es destinada la aplicación son niños de 5 a 6 años cursando el tercer nivel de
educación preescolar. La muestra tomada para realizar la prueba de usabilidad no es estadística, en lugar de
ello se realizó una selección teniendo en cuenta la facilidad para comunicarse que tenían los niños

85
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

participantes; para realizar esta selección se tomó en cuenta la sugerencia de los maestros de los niños. Lo
anterior, al responder a un enfoque cualitativo, no requiere un muestreo estadístico, ni cálculo de error.
Para las pruebas de usabilidad de la aplicación contamos con 7 participantes, de los cuales 3 eran niñas
y 4 niños (todos ellos estudiantes de un colegio privado nicaragüense; no se revelan sus identidades, ni se
muestran fotografías de los mismos en respeto a su privacidad y a las políticas del colegio).
En este aspecto es importante hacer notar que la aplicación bajo estudio está diseñada para contribuir al
aprendizaje inicial de números y vocales. Y los niños que participaron en el ejercicio ya tenían un
conocimiento básico de números y letras; esto puede implicar una limitación respecto a la evaluación de la
capacidad de la aplicación para contribuir al objetivo de aprendizaje en los niños (aprendizaje desde cero).
En consecuencia, se decidió valorar la capacidad de la aplicación para reforzar conocimientos básicos de
números y vocales.
Por otro lado, contar con niños con un poco más de conocimiento y madurez brinda la fortaleza de contar
con un sujeto de análisis (niño) más experimentado que puede brindar más riqueza en información sobre la
experiencia de usuario al usar la aplicación (por su mayor facilidad para expresar ideas).
B. Guion de las pruebas.
Dentro de cada prueba se tuvo la presencia de la coordinadora de educación preescolar del colegio como
facilitadora para que así los niños estuvieran más cómodos y en confianza. Las pruebas fueron realizadas en
la sala de cómputo del colegio haciendo uso de una Tablet (Tablet AOC U107 con Android versión 5.1.1) y
así tratamos de forma individual con ellos (uno a uno) para poder observar más claramente como los niños
hacían uso de la app.
C. Tareas a realizar por cada usuario.
La tarea asignada para los niños solo era explorar la aplicación para ver donde los llevaba de primera
instancia la curiosidad y notar si ellos por si solos podían hacer uso de ella (facilidad de uso). Se evaluó la
aplicación con cada niño de forma individual. Se llevó a cabo el ejercicio según lo siguiente:
 A cada niño se le hizo una presentación previa de la app de una manera entretenida para que ellos la
vieran más a modo de diversión que como una prueba. Posteriormente se les permitió usar la
aplicación libremente bajo la observación de un investigador y la maestra del colegio. Todo esto
tomando en cuenta que el tiempo con cada usuario dependería de cuanto les distraía la aplicación,
por tanto, no se definió un tiempo específico para realizar el ejercicio.
 Entrevistas: Mientras utilizaban la aplicación, a cada niño se le hicieron preguntas específicas sobre
su percepción de la interfaz de la aplicación, tales como: ¿te gusta esta área?, ¿te gustan estos
colores?, ¿te gusta la voz del juego?, etc. Se tomó nota de las respuestas de los niños.
 Observación: Cuando algún niño presentaba algún titubeo para continuar con la app, se tomaba nota
de la dificultad. La maestra (facilitadora) o los autores de este trabajo los hacían entrar en confianza
dándole pistas de como continuar.
Por cada niño se hizo apuntes específicos para cada una de las diferentes actividades que posee la
aplicación. Adicionalmente se documentaron las sugerencias que algunos de los niños y profesores
brindaron.
VI. RESULTADOS
La aplicación se evaluó con niños de tercer nivel; ya que estos tenían conocimientos básicos de números
y letras, éste ejercicio sólo permite valorar la aplicación en su utilidad para reforzar conocimientos básicos
sobre números y letras, y su idoneidad en el diseño para niños.
Primeramente, presentaremos los hallazgos encontrados organizados en base a las heurísticas de
evaluación de usabilidad de aplicaciones móviles recopiladas en [8] (ver Tabla II), estos dan una perspectiva
general de la aplicación; y posteriormente se muestran los hallazgos principales por funcionalidad, que dan
una perspectiva un poco más específica:

TABLA III HALLAZGOS ORGANIZADOS EN BASE A HEURÍSTICAS DE EVALUACIÓN DE USABILIDAD DE APLICACIONES


MÓVILES

Criterio Hallazgos basados en la observación de las pruebas con los niños y entrevistas
Reconocer antes que Para probar si la aplicación era intuitiva, a los niños solamente se les explicó el propósito de la aplicación,
recordar pero no se les indicó para qué servía cada elemento de la interfaz.
El resultado observado es que hubo algunas dificultades de reconocimiento: El botón de ayuda presente
en diversas ocasiones, no fue reconocido de forma intuitiva por los niños, se requiere cambiar el diseño.
Tampoco fue intuitivo para los niños reconocer cómo llegar a la actividad de trazo (de 7 participantes
sólo 2 ingresaron a la misma sin ayuda).

86
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Criterio Hallazgos basados en la observación de las pruebas con los niños y entrevistas
Armonización entre el Algunas imágenes utilizadas en la aplicación no resultaron adecuadas ya que el significado esperado no
sistema y el mundo correspondía con el que le daban los niños en la realidad. Por ejemplo se usó la imagen de una “iguana”
real. para la letra “i”, y los niños la asociaron con la palabra “garrobo” que es otro término común en el país
para animales que tienen bastante similitud.
Representación audio- Algunos gráficos usados en el juego no fueron reconocidos o fueron confundidos con algo diferente.
visual soporta el juego El dibujo que se utilizó para identificar la letra “o” era una “ola”, y ésta fue confundida con otros tipos de
objetos (“aleta de tiburón”); lo que hacía que el niño escogiese una imagen incorrecta y obtuviese malos
resultados.
También en la representación visual hubo otros problemas que están asociados a la consistencia, por tanto
se detallan en ese punto.
Consistencia y Se observó que hay un caso en que una imagen fue usada como opción de respuesta y también como
estándares botón para evaluar las respuestas en la aplicación; esta falta de consistencia generó confusiones en los
niños. Específicamente, en una funcionalidad de la aplicación se utiliza un botón con la imagen de una
estrella para que el usuario indique que ya finalizó la actividad y que debe ser evaluada; pero en otra
funcionalidad, la misma imagen de estrella era usada como parte de las posibles respuestas a seleccionar.
Eso hacía que los niños usaran la estrella como respuesta y no como botón para indicar que se debía
evaluar la actividad realizada.
Control del usuario y Los niños, en su mayoría, pidieron que la aplicación ofrezca el uso de diversos colores en los trazos
libertad (personalización). Un niño pidió la inclusión de consonantes en el juego.
Diseño estético y Los niños pidieron colores más alegres y llamativos en las interfaces (esto contrasta con la evaluación
minimalista positiva de los colores que usuarios adultos habían brindado en actividades anteriores).
Algunos iconos o imágenes en uso no fueron comprendidos adecuadamente (en algunos casos por el estilo
de gráfico, y en otros por los conocimientos previos de los niños).
Legibilidad y densidad No se presentan inconvenientes
de información
Manipulación directa / La aplicación en su totalidad está diseñada para que el niño apunte, toque, y arrastre; hay manipulación
Ve y apunta directa y sencilla de la aplicación.
Mantener su modelo de El modelo de navegación fue simple y fácil de usar. Solamente no fue claro cómo llegar a la actividad de
navegación simple trazo.
- Provee La aplicación brinda realimentación verbal a los niños para que sepan si están haciendo las actividades
realimentación de forma correcta o no. Sin embargo, cuando el niño no sabe qué debe hacer se presentan inconvenientes
constante y apropiada. ya que, aunque la aplicación provee un botón de ayuda que el niño puede usar para que se le explique
- Ayuda al usuario a verbalmente qué se espera que haga, los niños no reconocieron de forma intuitiva dicho botón y fue
reconocer, necesario que el equipo investigador les indicara que lo presionaran cuando se observaba que tenían
diagnosticar, y dificultades. El ícono elegido para la ayuda (botón de play) no fue claro para los niños.
recuperarse de errores.
- Ayuda y Errores/fallos de la aplicación actualmente son pocos (se observaron durante las pruebas con niños) y la
documentación aplicación aún no los está manejando con suficiente efectividad.
Prevención de errores En este caso hay algunos errores que comete el usuario que podrían prevenirse; por ejemplo cuando se
espera que el usuario ingrese sólo dos respuestas correctas (actividad “Selecciona la imagen que inicia
con la vocal a…”, la app podría inhabilitar al usuario seleccionar más de dos opciones (actualmente no
lo hace)
Visibilidad del estatus La realimentación verbal constante al niño le ayuda a conocer todo el tiempo el estado de la aplicación.
del sistema Cada vez que realiza una acción correcta le dice “lo estás haciendo bien”; y si no lo está haciendo bien
recibe el mensaje verbal “inténtalo de nuevo” (mensajes de error). Esto fue claro para los niños.
Interacción con el En general a los niños les gustó la aplicación y quieren volver a usarla una vez que se hagan las mejoras
usuario placentera y sugeridas. La aplicación no es intrusiva.
respetuosa
Facilidad de introducir Los métodos para introducir datos son tocar o arrastrar elementos. Actualmente, se presentaron algunos
datos, legibilidad de inconveniente con la modalidad de “arrastrar”, ya que cuando el niño recibe la indicación verbal de
pantalla “arrastrar la vocal [o número] x” realmente no comprendía en qué consistía “arrastrar” (qué es lo que
debía hacer).
Convenciones No se piden datos de los niños, ni se almacenan datos del desempeño que tuvieron. La realimentación que
estéticas, privacidad y se brinda es inmediata. Esto en respeto a la privacidad de ellos.
sociales
Salvaguarda la La aplicación no toma ningún dato del usuario, no se violan aspectos legales
seguridad legal de los
jugadores
Piensa modular La aplicación está diseñada en pequeños módulos de práctica
Estabilidad percibida Se presentaron algunos errores en casos muy puntuales.
Interacción física y Es una aplicación que hace el uso típico de pantallas táctiles, no hay hallazgos negativos en este caso.
ergonomía
Hay una necesidad La necesidad que se está tratando de atender es:
Reforzar o facilitar el aprendizaje de vocales y números en niños en edad pre-escolar.
Flexibilidad y Por los hallazgos en criterios anteriores se observa que se requiere mayor flexibilidad en el control que
eficiencia de uso se le da al usuario.

A continuación, se resumen los resultados agrupados por funcionalidad:


A todos los niños les gustó la aplicación y esperan poder volver a usarla (experiencia de usuario positiva
en general); sin embargo, se encontraron muchos aspectos de mejora para la misma que se presentan a
continuación:

87
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

A. Inicio
En las pruebas con todos los niños lo más notorio fue la necesidad de mejorar la interfaz de inicio (ver
Fig. 1) para que ellos entiendan qué hacer por sí mismos. Se ha considerado solventar esta debilidad
agregando un botón de ayuda con alguna imagen para que ellos entienda que deben de tocar el mismo para
que la voz de “text to speech” les diga qué hacer para continuar.
B. Actividad de trazo
• Se les dificultó comprender la acción esperada, es decir lo que debían hacer (Ver Fig. 5).
• No sabían por ellos mismos la ubicación de la actividad en el menú principal. Esto quiere decir que
hay que buscar maneras de hacer que dicho menú sea más claro para los niños (Ver Fig. 1).
• A la mayoría no les llamó la atención dibujar fuera del trazo de las letras y números.
• Algunos no sabían en donde estaba el botón de borrado.
De lo anterior se deduce la existencia de limitaciones en la facilidad de uso y efectividad de la aplicación
en esta actividad. Adicionalmente, se obtuvo la sugerencia de un niño de agregar una paleta de colores para
poder colorear las letras y números a su gusto; esto último incidiría en la satisfacción del usuario y su
experiencia.

Figura 5. Pantalla de actividad de trazo

C. Actividad de vocales y números


• No sabían cuál era el fin de la actividad; se observó en este momento que la interfaz adolece de botón
de ayuda para brindar indicaciones (ver Fig. 6 y 7).
Al hacer la prueba de esta funcionalidad, la mayoría de los niños no la encontró útil debido a sus
conocimientos previos (ya conocían las letras y los números). Esto quiere decir que la aplicación debe
dirigirse a niños de aún menor edad u omitir estas actividades que al ser las opciones iniciales de la interfaz
podrían aburrir al niño rápidamente y causar el abandono de la misma.
Este hallazgo también representa limitaciones en la facilidad de uso y efectividad de la aplicación. Los
profesores recomiendan crear un sistema de desbloqueo de actividades para que el niño ingrese primero a
esta actividad.
D. Actividad de Contar
• Se presentó fallo de la app al corregir algunas áreas (cierre repentino de la app); este también se da
cuando el usuario hace muy rápidamente las actividades. (ver Fig. 8)

88
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura. 6. Actividad vocales (al presionar la letra o la imagen la Figura. 7. Al presionar el número o la imagen la aplicación dice
aplicación dice el nombre de la misma con fines de que lo que es (en este caso “uno” o “un dedo”) usando “text-to-
aprendan lo que son) speech”

E. Actividad Que vocal hace falta


• No comprenden que deben de arrastrar la letra. (ver Fig. 9)
• Confunden la imagen de la “ola” con una “aleta” (por el tipo de gráfico).

Figura. 8. Actividad de contar (el niño debe seleccionar el Figura. 9. Actividad de completar la vocal faltante (el niño debe
número que corresponde a la cantidad de elementos mostrados) arrastrar la letra correcta al lugar correspondiente)

F. Actividad de “arrastra la vocal y número al siguiente cuadro”


• Problema con la app al pronunciar la vocal “a” y la vocal “i”, éste consiste en que la app dice dichas
vocales muy rápido y los niños no lograron entender. (ver Fig. 10)
• Si el usuario hace las actividades muy rápido la letra o número se despliega hasta el botón de ayuda
(se muestra la letra como “marca de agua” sobre el botón de ayuda hasta que se completa la
actividad)
• Fallo al cambiar de fase: En una de las actividades se presentó fallo de que no se le permitía arrastrar
la vocal correcta para completar la palabra.
G. Actividad de selecciona la Imagen que inicia con la vocal a…
• Ningún usuario sabía para que estaba el botón de la estrella.

89
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• La imagen de la “ola” todos los usuarios la desconocieron.


• En la fase de la letra “e” se confunden con el botón de la estrella. (ver Fig. 11)

Figura. 10. Actividad de arrastra la vocal o número Figura. 11. Actividad de seleccionar la imagen que inicia con la
vocal previamente dada

H. Comentarios de los profesores


De manera complementaria se obtuvo comentarios de los profesores que se resumen a continuación:
 Eliminar los mensajes emergentes de la parte de abajo ya que estos no sirven de nada pues el niño
no tiene suficiente habilidad desarrollada para leerlos (se pueden ver mensajes emergentes de
ejemplo en las Fig. 8-11).
 Hacer que el botón de ayuda en cada actividad se indique de forma más evidente para que así el niño
por sí mismo pueda saber dónde está.
 Cambiar los colores de la app por un tono más pastel.
 Hacer más llamativa la manera de felicitar al usuario cada vez que complete una actividad.
 Crear un sistema de desbloqueo de niveles para que así el usuario realice primero las actividades de
repaso antes de las demás actividades.

VII. CONCLUSIONES
Este caso de estudio nos permite analizar y comprobar la importancia de la usabilidad y experiencia de
usuario para el desarrollo de las aplicaciones software. En particular es interesante notar los cambios
sustantivos que se derivan de los intereses de usuarios particulares, como los niños; estos descartan o
consideran de poco valor funcionalidades o características que los desarrolladores (personas con una gran
diferencia en el rango de edad y por tanto con ideas preconcebidas que se implementan en el software)
implementan esperando tener amplia aceptación. Las sugerencias obtenidas a partir de una evaluación de
experiencia de usuario, son aún más importantes en el caso de aplicaciones desarrolladas por iniciativa propia
(no a solicitud de un cliente específico) para atender un sector de mercado (un tipo específico de usuario que
representa a un sector amplio de la población), como es el caso presentado en este trabajo.
A pesar de que la aplicación móvil Kinder fue diseñada utilizando múltiples estrategias para atender
necesidades particulares de niños en edad pre-escolar, la evaluación de la usabilidad y experiencia de usuario
hace notoria, una vez más, la importancia de involucrar a los usuarios para la efectividad y el éxito de la
misma. Es evidente que hay muchos aspectos que mejorar para lograr la experiencia de usuario esperada en
niños y mejorar la usabilidad de la misma. De este ejercicio se obtienen insumos de mejoras menores (colores
más apropiados) hasta drásticos (como la necesidad de repensar el enfoque de la aplicación para atender sus
usuarios). De forma resumida en base a los supuestos que se utilizaron al crear la aplicación Kinder:
 Se comprobó que el uso de texto a voz (“Text To Speech”) es una excelente opción para aplicaciones
dirigidas a niños;

90
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

 La selección de colores e imágenes atractivas para niños usadas en la aplicación no fue la más
acertada. Aquí se puede considerar un enfoque en que se flexibilice el control y se le permita al niño
escoger la paleta de colores que más le gustaría. En cuanto a las imágenes, se escogieron imágenes
basadas en dibujos minimalistas (simplificados); esto en algunos casos no fue muy adecuado ya que
los niños tendieron a confundirlas con otras cosas (ya sea por la imaginación de los niños o por una
excesiva simplicidad de las imágenes) perjudicándoles en los resultados de evaluación.
 La creación de actividades con un nivel de dificultad adecuado para los niños del rango de edad
meta: en este caso, la mayoría de las actividades fueron bastante fáciles de realizar para los niños
(los resultados pueden variar con niños de menor edad que los seleccionados); se considera para el
futuro de la aplicación el incluir actividades más retadoras y posiblemente crear grupos de
actividades segmentadas por dificultad para tratar de atender los diferentes niveles cognitivos que
tienen los niños en edad pre-escolar.

VIII. TRABAJOS FUTUROS:


Luego de realizar este ejercicio se considera necesario implementar mejoras a la aplicación en base a los
hallazgos encontrados, e incluso la actualización de la misma para que funcione en versiones recientes de
Android.
También es necesario realizar evaluaciones de usabilidad y experiencia de usuario adicionales con niños
que aún no sepan leer, niños de menor edad, y también con niños de colegios públicos (ya que estos últimos
pueden tener diferencias en su proceso de formación); esto para tener una perspectiva más completa de la
efectividad de la aplicación para atender las necesidades por las que fue desarrollada.
IX. AGRADECIMIENTOS
Agradecemos al Colegio Mi Redentor, a los niños participantes en el ejercicio y a sus padres por el apoyo
para realizar este trabajo.
X. REFERENCIAS BIBLIOGRÁFICAS
[1] C. Montenegro Gallegos y J. Téllez Medrano, «Kinder: Aplicación Móvil Android Educativa Para Niños de Preescolar,»
Computación para el Desarrollo - XI Congreso (COMPDES2018), pp. 258-263, 2018.
[2] G. Zurita, J. Sánchez y M. Nussbaum, «Usabilidad de juegos educativos,» Taller Internacional de Software Educativo, TISE 99,
1999.
[3] M. E. Pérez Cordoba Sánchez , M. E. García García y J. A. Hernández Perales , «Consideraciones especiales para realizar
pruebas de usabilidad con niños: Caso de Estudio,» ReCIBE, 2015.
[4] N. Tractinsky, «The Usability Construct: A Dead End?,» Human–Computer Interaction, 2017.
[5] B. Shackel, «Usability – Context, framework, definition, design and evaluation,» Human Factors for Informatics Usability, pp.
21-31, 1991.
[6] J. Nielsen, Usability Engineering, Elsevier, 1993.
[7] ISO, «ISO 9241-11:2018(en) Ergonomics f human-system interaction - Part 11: Usability,» 2018. [En línea]. Available:
[Link] [Último acceso: 31 Mayo 2019].
[8] A. de Lima Salgado and A. Pimenta Freire, "Heuristic Evaluation of Mobile Usability: A Mapping Study," Human-Computer
Interaction, Part III, pp. 178-188, 2014.

91
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Aplicación “UDAFORMIN” para la


determinación del tipo de fortificación minera

Application "UDAFORMIN" for the


determination of the type of mining
fortification

Patricio Feijoo Calle1, Adrián Bravo León1, Nicolás Escandón Calle1


Escuela de Ingeniería en Minas
Facultad de Ciencia y Tecnología
Universidad del Azuay (Ecuador)
E-mail: pfeijoo@[Link]

Resumen — En minería, como túneles y taludes, para la evaluación del tipo de fortificación, los parámetros
importantes que se deben introducir, para el cálculo de la misma, deben pasar por un proceso de análisis, que
muchas veces puede ocasionar, por la falta de experiencia, errores de apreciación y aproximación. Esta
caracterización es de importancia para la seguridad de los trabajadores. Por esta razón se vio importante
preparar una aplicación en Visual Basic, la cual permita, solamente con la introducción de los parámetros
iniciales, como la resistencia a la compresión, Rock Quality Designation (RQD), bloque típico, condiciones de
fracturas, agua subterránea, etc. y en función de la programación establecida, encontrar resultados de Rock
Mass Rating (RMR), Calidad de la Roca (Índice Q), Tiempo de Auto sostenimiento y Tipo de Fortificación
necesaria.

Palabras clave; minería, visual, Basic, fortificación.


Abstract — In mining, as tunnels and slopes, for the evaluation of the type of fortification, the important
parameters that must be introduced, for the calculation thereof, must go through a process of analysis, which
can often cause, due to lack of experience, errors of appreciation and approximation. This characterization is
important for the safety of workers. For this reason it was important to prepare an application in Visual Basic,
which allows, only with the introduction of the initial parameters, such as compression resistance, Rock Quality
Designation (RQD), typical block, fracture conditions, groundwater, etc. and depending on the established
schedule, find results of Rock Mass Rating (RMR), Rock Quality (Q Index), Self-sustaining Time and Type of
Fortification required.

Keywords; mining, visual, Basic, fortification.

I. INTRODUCCIÓN
Para el desarrollo de actividades mineras, la estabilidad y sostenimiento de galerías o taludes es una parte
fundamental y se establece como una de las labores más importantes, puesto que, la fortificación correcta
cumple con su objetivo de evitar derrumbes o caída de bloques y en consecuencia, garantiza la seguridad,
principalmente del personal, de las herramientas o equipos y la producción, por lo que de esta manera, con
una fortificación adecuada y técnica se logrará evitar accidentes laborales. Por lo expuesto podemos generar,
para el personal, una zona y ambiente de trabajo seguros, logrando que su desempeño sea mayor y
proporcionando seguridad para la empresa.

92
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Ahora bien, para determinar el tipo de fortificación se realiza una serie de cálculos y análisis de las
clasificaciones geo mecánicas, y muchas veces estas operaciones pueden ser erradas o mal aproximadas, a
más de que estos procesos de cálculo pueden ser tediosos y en muchas ocasiones generan confusión y/o
errores de apreciación o visualización.
Es así, que hemos encontrado la necesidad de implementar la tecnología, para poder principalmente
determinar o elegir el tipo de fortificación apropiada, en los trabajos en minería. Con esta aplicación estamos
en la capacidad de determinar inicialmente valores del Rock Mass Rating (RMR) e Índice Q, el tiempo de
auto sostenimiento del macizo rocoso, factor de seguridad y finalmente establecer el tipo específico de
fortificación a utilizarse en la labor minera, ejecutando los cálculos respectivos de manera confiable, por
medio de la aplicación de diferentes métodos y comparaciones.
Esta aplicación se la ha desarrollado en Visual Basic, y la hemos denominado UDAFORMIN. Es una
herramienta de ágil manejo, permite un ahorro considerable en tiempo y de una manera más segura nos
presenta los tipos de fortificación ideales para la obra estudiada.
II. METODOLOGIA
La base fundamental de este trabajo está en la Mecánica de Rocas, la que resuelve entre otros los
problemas del comportamiento de la matriz rocosa y del comportamiento de la roca in situ con las
discontinuidades inherentes (macizo rocoso) 1.
Debido a lo descrito se llegará a definir la fortificación o estabilización de la obra que se está analizando.
La fortificación es el conjunto de procedimientos que permiten mantener estables las labores cuando su
condición no es auto soportante en una mina subterránea 2.
En minería subterránea la fortificación debe ser confiable, desde el inicio de las labores mineras
subterráneas, para de esta manera garantizar un lugar de trabajo seguro.
La calidad del proyecto depende de la confiabilidad de las investigaciones de campo y laboratorio, así
como la capacidad del proyectista para interpretar los resultados experimentales, definir los parámetros del
proyecto y, principalmente, analizar los escenarios posibles que pueden alterar las condiciones de resistencia
al corte o reducir los factores de seguridad 3.
Para la elección del tipo de sostenimiento o fortificación a utilizar en una obra subterránea, existen una
serie datos o valores iniciales que se deben obtener en campo y con experticia del caso. Hay varios criterios
que se deben considerar para elegir el tipo de fortificación adecuada que se empleará en un lapso de tiempo,
o de forma permanente 4.
Los criterios que se deben analizar son:
 Condiciones mecánicas y geo estructurales, existentes en el macizo.
 Forma y dimensiones de la sección transversal de la excavación.
 Su vida de servicio y uso.
 Grado de estabilidad del sistema macizo-excavación.
 Presencia de agua y sus características.

Determinadas estas características, se procede al desarrollo de la metodología para la determinación del


tipo de fortificación.
Siendo fundamental aplicar las clasificaciones denominadas RMR e Índice Q, para lo cual se ha
desarrollado, en el lenguaje de programación de Microsoft, Visual [Link], el cual es parte de la nueva
generación del lenguaje ya conocido Visual Basic.
Está diseñado para la creación de aplicaciones orientadas a objetos brindando productividad y seguridad.
Los destinos más comunes de este lenguaje son dispositivos móviles, web y computadoras con el sistema
operativo Windows. Las aplicaciones construidas con Visual Basic se generan con los servicios de Common
Language Runtime y todos los lenguajes que tienen como destino Microsoft .NET Framework, se benefician
de la seguridad ampliada, interoperabilidad entre lenguajes, recolección de elementos no utilizados y
compatibilidad de versiones mejoradas 5.
Establecida esta aplicación (figura 1), la misma presenta una serie de ventanas, iniciando por el ingreso
de datos, lo cual podemos ver en la figura 2:

93
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Fig. 1. Ventana para inicio de la aplicación UDAFORMIN

Fig. 2. Ventana para introducción de datos iniciales


La aplicación, como se mencionó anteriormente, se desarrolló con el lenguaje de programación Visual
Basic. El desarrollo del código se inició identificando los problemas iniciales para el cálculo. La aplicación
requiere de ciertos datos que son ingresados manualmente por el usuario como son: Resistencia a la
Compresión Uniaxial (RCU) o Índice de Point Load Test (Is(50)), RQD, separación y condiciones de las
diaclasas y condiciones hidrológicas. A cada uno de estos valores se les debe asignar un respectivo puntaje,
que es calculado mediante ecuaciones. Estas ecuaciones son codificadas mediante órdenes y procedimientos
correctamente establecidos por el desarrollador, para el entendimiento del ordenador, y así este pueda asignar
automáticamente el puntaje correcto. Luego se declaró un código para que la aplicación asigne
automáticamente un puntaje de corrección y obtener como resultado el puntaje de RMR. (Figura 3).

Fig. 3. Pantalla con el resultado de RMR y Clase de Roca


El valor de la luz del túnel es otro dato que el usuario debe ingresar manualmente, para el cálculo del
factor de seguridad y el tiempo de auto sostenimiento. Se debe cumplir órdenes, reglas y variables declaradas
en el lenguaje de programación para que la aplicación pueda asignar y mostrar resultados correctos. Los
últimos datos que el usuario debe ingresar manualmente servirán para el cálculo del índice Q, que, por medio
de una fórmula que correctamente codificada en el lenguaje, la aplicación calculará y mostrará el valor del
Índice Q. Finalmente el usuario deberá seleccionar el tipo de excavación que se realizará y el programa
evaluará de manera automática, obedeciendo las especificaciones ingresadas por el desarrollador, cuál será
el soporte adecuado que se deberá utilizar, esto se puede ver en las figuras 4, 5, 6 y 7.

94
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Si los resultados obtenidos no coinciden con las especificaciones establecidas en el código, el programa
mostrará un mensaje distinto. Todos los resultados obtenidos: RMR, factor de seguridad, tiempo de auto
sostenimiento, Índice Q y el tipo de fortificación, serán exteriorizados en un documento en Microsoft Word.

Fig. 4. Pantalla con el resultado del Factor de Seguridad

Fig. 5. Pantalla con el resultado del Tiempo de Auto sostenimiento

Fig. 6. Pantalla con el resultado del Índice Q

Fig. 7. Pantalla con el resultado del Soporte Recomendado

95
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

III. RESULTADOS Y COMPARACIÓN


Luego de ejecutada la fase de programación de la aplicación, se verificó su funcionamiento mediante la
obtención de resultados con el ingreso de datos de estudios anteriores, con la intención de corroborar si la
aplicación presenta similitud con los resultados de otras investigaciones o trabajos. Para esto se han tomado
como referencia los siguientes estudios, los cuales se pueden encontrar en la web:
1. Correlación entre el índice RMR de Bieniawski y el Índice Q de Barton en formaciones
sedimentarias de grano fino, presente en:
[Link]
cle/view/5854/6841
De este estudio obtuvimos los datos iniciales, los cuales son:

Distancia de
RCU RQD Condiciones de Condiciones
las diaclasas LUZ (m)
(MPa) (%) las diaclasas Hidrológicas
(mm)
Superficie
ligeramente
rugosa. Completamente
31.89 76 200 6
Separación Seco
<1mm. Paredes
diaclasas duras

Jn Jr Ja Jw SRF Tipo de excavación


Excavaciones mineras permanentes. Túneles de
conducción de agua para obras hidroeléctricas
9 1.5 6 0.66 1
túneles piloto, excavaciones parciales para
cámaras subterráneas grandes.

Los resultados del estudio son:

RMR = 63 INDICE Q = 1.39

y los resultados de la aplicación UDAFORMIN:

RMR = 62.579 INDICE Q = 1.39333

Además de lo expuesto la aplicación UDAFORMIN nos entrega la siguiente información adicional:

 Fortificación recomendada por la aplicación:

concreto lanzado aplicado directamente sobre la roca espesor de 20 a 30 m.

 Notas complementarias de Barton, Lien y Lunde:


En los casos serios de estallidos o reventones de roca se utilizan muchas veces pernos tensados con
placas de reten grandes y un espaciamiento alrededor de 1 m (a veces de 0.8 m).
Se aplica al refuerzo final cuando se detienen los chasquidos.

2. Sectorización Geotécnica del Túnel de Drenaje Etapa 2, expansión Norte de mina Sur,
división CODELCO Norte, en:
[Link]

De este estudio obtuvimos los datos iniciales, los cuales son:

96
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Distancia de Condiciones
RCU RQD Condiciones
las diaclasas de las LUZ (m)
(MPa) (%) Hidrológicas
(mm) diaclasas
Onduladas Seca o presenta
lisas a flujos de agua con
20-80 65-80 2a7 4.5
onduladas caudales menores a
rugosas 5 lt/min

Jn Jr Ja Jw SRF Tipo de excavación


Excavación subterránea,
6 - 12 2-3 4 1 2.5
el Túnel de Drenaje.

Los resultados del estudio son:

RMR = 35 a 65 INDICE Q = 1.1 a 1.8

y los resultados de la aplicación UDAFORMIN:

RMR = 59.6054 INDICE Q = 1.625

IV. CONCLUSIONES
La aplicación UDAFORMIN puede ser una herramienta de gran ahorro en tiempo y evita errores de visualización y
cuantificación en la determinación de RMR o Índice Q, lo que garantiza que los resultados puedan ser aceptados para
tranquilidad de los trabajadores y de la obra en construcción y desarrollo.

Como se puede observar en las figuras 1 a 7 la aplicación UDAFORMIN es muy accesible y amigable para su
manejo. Lo que se debe tener presente es que los datos iniciales ingresados deben tener la certeza y confiabilidad del
ingeniero o experto que los determine en campo, esto debido a que la aplicación no genera ningún tipo de corrección
de los valores ingresados.

Podemos registrar, que en los dos estudios tomados en consideración para la comparación con la aplicación
UDAFORMIN, los resultados están en orden de similitud bastante aproximada, lo que hace prever que el desarrollo
programático de la aplicación es correcto y confiable.

Una vez evaluados los resultados, que se han obtenido en las experiencias llevadas a cabo en estos dos ejemplos y
en varios que en el presente estudio no se incluyen por espacio, reconocemos el empleo de la aplicación UDAFORMIN
para la determinación de la fortificación recomendada para cada caso de estudio.

Esta aplicación es necesaria en el caso de minería para el estudio geotécnico y comportamiento de la roca y macizo
rocoso; pues en la práctica se ha demostrado que existen otras variables a tomar en consideración. La profundización
en el conocimiento de los diferentes materiales rocosos, la corroboración en el tiempo en la eficiencia de la aplicación,
son puntos que deben ser tratados para que UDAFORMIN se ponga a punto y sea avalada.

V. REFERENCIAS BIBLIOGRÁFICAS
[1] Galván, M. (2015), Mecánica de Rocas: Correlación entre la Resistencia a Carga Puntual y la Resistencia a Compresión Simple,
Colombia, p. 23.
[2] Gonzáles, R. (2013), Guía N° 5 de operación para la Pequeña Minería Fortificación y Acuñadura. Chile, p. 4.
[3] Gerscovich, D. (2015), Estabilidad de Taludes. Colombia, p. 33-34.
[4] Sari, J., y Rodas, D. (2013), Propuesta del Sistema de Fortificación que se debe emplear a lo largo de la veta F-10 de la mina
subterránea Liga de Oro de la empresa SOMILOR S.A., Trabajo de Graduación, Universidad de Cuenca, Ecuador.
[5] Dollard, K., y Cai, S. (2018), [Link] Microsoft.

97
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Propuesta de
arquitectura IoT para monitorear
a mujeres embarazadas en riesgo de
pleeclamsia:
MotherNet

A proposal for an IoT architecture to


monitor pregnant women at risk of
preeclampsia
MotherNet

Edna Bernal Monroy


Universidad Nacional Abierta y a Distancia – UNAD Bogotá, Colombia
[Link]@[Link]

Sixto Campaña Batidas


Universidad Nacional Abierta y a Distancia – UNAD Pasto, Colombia
[Link]@[Link]

Henry Bolaños Bravo


Hospital Universitario Departamental de Nariño, Pasto, Nariño
bolakos@[Link]

Jhon Alexander Rosero


Universidad Nacional Abierta y a Distancia – UNAD Pasto, Colombia
jhonalex_rl@[Link]

Harold Cabrera Meza


Universidad Nacional Abierta y a Distancia – UNAD Pasto, Colombia
[Link]@[Link]

Álvaro José Cervelion Bastidas


Universidad Nacional Abierta y a Distancia – UNAD Pasto, Colombia
[Link]@[Link]

MOTHERNET

Telecare Services for Maternity

98
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Resumen —La preeclampsia es una enfermedad que afecta sustancialmente a las madres embarazadas en
todo el mundo. La presión arterial alta y el elevado nivel de proteinuria son algunos de los signos de esta
enfermedad, que podrían causar la muerte de la madre y el niño. En 2017, el Instituto Nacional de Salud de
Colombia reportó 487 muertes por cada 100,000 nacimientos debido a la preeclampsia, lo que significa un
2.1% más que en 2016. Para mitigar este problema, el grupo Davinci de la UNAD está trabajando en el
desarrollo de un servicio remoto de tele-atención compuesto por un dispositivo IoT y un sistema de
información centralizado. El dispositivo contiene una serie de sensores y conectividad a Internet, que
permiten medir y transmitir los valores de la presión arterial. El sistema de información tiene como objetivo
recopilar datos transmitidos por el dispositivo IoT, a través de un software especializado, para monitorear la
salud de la madre embarazada. El sistema permite al médico evaluar las condiciones de salud de la madre
periódicamente de manera remota, por lo que se hace necesario que la madre lleve el dispositivo IoT en su
etapa de gestación de forma permanente. Cuando se encuentra una anomalía, el sistema de información
emitirá una alarma al personal médico a cargo de la madre, sobre los valores de la presión arterial de tal
manera que se tomen las medidas necesarias para confirmar una pre-eclampsia y evitar sus complicaciones
de forma oportuna. Con esta solución, se pretende alcanzar uno de los objetivos de desarrollo sostenible
planteados por la Organización Mundial de la Salud, “para 2030 en reducir la mortalidad materna a menos
de 70 por cada 1000.000 nacidos vivos”; al intervenir en forma oportuna en el diagnóstico de la pre-
eclampsia, una de las principales causas de morbimortalidad materna en el mundo. Actualmente, el desarrollo
se encuentra con un prototipo del dispositivo IoT y un software de control que se está perfeccionando. Se ha
previsto que esta tecnología se implemente en Colombia, pero se puede expandir a otros países con alto riesgo
de preeclampsia. La valorización de este proyecto se puede dividir en dos aspectos: tecnológico y social. En
lo tecnológico, los resultados buscan crear una escisión en Colombia, basada en la tecnología IoT, para
beneficiar a las madres embarazadas que viven en áreas remotas. En lo social, debido a que Colombia tiene
amplias regiones donde el servicio de salud es ineficiente y los recursos son limitados, el sistema de tele
gestión pretende intervenir en estas regiones.

Palabras clave; Monitoreo, preeclamsia, IoT, madres embarazadas


Abstract — Preeclampsia is a disease that substantially affects pregnant mothers around the world. High
blood pressure and high proteinuria are some of the signs of this disease, which could cause the death of the
mother and child. In 2017, the National Institute of Health of Colombia reported 487 deaths per 100,000 births
due to preeclampsia, which means 2.1% more than in 2016. To mitigate this problem, the Davinci group of
the UNAD is working on the development of a remote tele-attention service consisting of an IoT device and
a centralized information system. The device contains a series of sensors and connectivity to the Internet,
which allow to measure and transmit the values of blood pressure. The objective of the information system
is to collect data transmitted by the IoT device, through specialized software, to monitor the health of the
pregnant mother. The system allows the doctor to evaluate the health conditions of the mother periodically
remotely, which is why it is necessary for the mother to carry the IoT device in its gestation stage
permanently. When an anomaly is found, the information system will send an alarm to the medical staff in
charge of the mother, on the values of blood pressure in such a way that the necessary measures are taken to
confirm a pre-eclampsia and avoid its complications in a way timely With this solution, it is intended to
achieve one of the objectives of sustainable development proposed by the World Health Organization, "by
2030 to reduce maternal mortality to less than 70 per 1,000,000 live births"; by intervening in a timely manner
in the diagnosis of pre-eclampsia, one of the main causes of maternal morbidity and mortality in the world.
Currently, the development is with a prototype of the IoT device and a control software that is being perfected.
It is planned that this technology be implemented in Colombia, but it can be expanded to other countries with
a high risk of preeclampsia. The valorization of this project can be divided into two aspects: technological
and social. In terms of technology, the results seek to create a split in Colombia, based on IoT technology, to
benefit pregnant mothers living in remote areas. Socially, because Colombia has large regions where the
health service is inefficient and resources are limited, the tele management system intends to intervene in
these regions.

Keywords; Monitoring, preeclaimsia, IoT, pregnant mothers

I. INTRODUCCIÓN
En Colombia el panorama de la mortalidad materna es un fenómeno que sigue ocurriendo
continuamente, a pesar de los esfuerzos que las instituciones y profesionales de la salud hacen día
a día para disminuirlo. Para tener una visión general y específica del problema, a continuación, se
hace una breve descripción de algunas estadísticas que se presentan con respecto a la mortalidad
materna y en especial con relación a la preeclampsia (PE), teniendo como referente principalmente
los últimos 10 años. Según Diaz y Serrano [1], la PE es un problema que afecta a las mujeres

99
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

embarazadas, pero que puede traer consecuencias futuras, tanto a la madre que la padece, como al
bebe que está en gestación, situación que hace que se deba prestar mucha atención a este síndrome.
Según [1] en el año 2006 el 23,8% de la mortalidad materna en Colombia se dio por esta patología
a nivel general, pero en las instituciones de tercer nivel para ese mismo año fue del 50%, recalcan
los autores que para ese año la PE se constituyó como la primera causa de mortalidad materna en
Colombia. Por otra parte, Piedrahita y Agudelo [2], sostienen que la PE y las enfermedades
asociadas a eventos hipertensivos son las enfermedades que más muertes aportan al indicador
epidemiológico de mortalidad materna en el mundo, cuya tasa para el año 2010 fue de 25,7% para
países como Colombia y de 16,1% para países desarrollados. Según Cinets [3], en el año 2013, la
estadística general para Colombia con respecto a la PE fue del 35% de muertes maternas asociadas
a trastornos hipertensivos, donde además se resalta que estas afecciones son un problema prioritario
de salud pública y que requiere de la atención oportuna a las enfermedades asociadas para disminuir
el índice de mortalidad hasta la fecha presentado. En los años 2014 y 2015 las estadísticas tampoco
mejoraron. Según el Instituto Nacional de Salud de Colombia [4], en el 2014 se presentó 10.499
casos de morbilidad materna, aumentando un 35% con respecto al 2015 y para el 2018 el número de
casos aumentó a 15067. Según el mismo informe las causas principales de morbilidad materna
fueron las de trastorno hipertensivo, como la PE y en segundo lugar la complicación hemorrágica.
Acorde a lo anterior y según las referencias citadas, se puede identificar a los trastornos
hipertensivos como la PE, como las principales causas específicas de muerte materna en Colombia,
problema que aún sigue latente y con necesidad de acciones que permitan controlarlo y que ayuden
disminuir las tasas anteriormente presentadas.
En el caso específico del departamento de Nariño (Población seleccionada para la
investigación), y según estudios realizados por la Secretaria de Salud departamental, se presentaron
23 muertes por cada 1.000 vivos en los casos de morbilidad materna extrema para la vigencia 2017,
estadística que aumentó con respecto a la vigencia del 2016, donde se presentaron 14 muertes por
cada 1000 nacidos vivos. Según el mismo estudio se identifica que la primera causa corresponde al
trastorno hipertensivo, seguido de la hemorragia postparto. Según [4], "Se debe comprometer a las
autoridades locales, con el fin de optimizar los recursos y aglutinar todos los esfuerzos posibles en
la disminución de morbilidad y mortalidad materna". En el mismo documento se dice que: "se debe
estar siempre listos para la emergencia obstétrica y garantizar los derechos en salud sexual y
reproductiva, maternidad e infancia: fomentar la calidad y calidez en la atención integral e integrada
en salud sexual y reproductiva, materno infantil y garantía de derechos, para que las empresas
administradoras de planes de beneficios (EAPB) cumplan sus responsabilidades garantizando los
servicios requeridos por su población a cargo en todo el territorio nacional y la calidad de las IPS
de su red de servicios contratada, las entidades territoriales municipales, distritales y
departamentales vigilen que la población de su jurisdicción acceda a los servicios requeridos y las
IPS públicas y privadas cumplan con la garantía de la calidad en sus servicios en el ámbito
comunitario y en los niveles de atención de baja, mediana y alta complejidad". Que en la teoría suena
bien, pero que en la práctica no se ha logrado desarrollar, puesto que cada año el indicador se
mantiene con altas tasas de mortalidad materna y las acciones para controlarlo o mitigarlo parecen
insuficientes, lo que a la postre genera más casos mortalidad y gana la partida a las madres y sus
bebes, convirtiendo a la PE y las enfermedades asociadas a eventos hipertensivos en problemas de
salud pública que cada año cobran más víctimas.
Los esfuerzos por reducir la mortalidad materna y en especial por tratar enfermedades como la
PE han sido varios, como el mencionado por Herrera et al. [5], quienes describen un programa de
cuidado prenatal introducido en Colombia entre los años 2002 y 2006, fechas anteriores a las
estadísticas presentadas en este estudio, que, si bien los autores comparan los resultados con años
anteriores, para efectos de la investigación propuesta demuestran que aún no son suficientes y que la
tasa de mortalidad por causa de la PE y patologías asociadas sigue siendo alta. Por otra parte,
Navarro et al. [6], sostienen que los factores sociodemográficos también repercuten y están
asociados muy fuertemente con la mortalidad perinatal en gestantes en Colombia. En [6] los autores
manifiestan que personas de escasos recursos y población joven entre los 15 y 19 años de edad,
principalmente, son más propensas adquirir enfermedades durante su embarazo, debido entre otras
causas a la falta de un control gestacional adecuado o la ausencia del mismo por las situaciones que
viven las gestantes. Por lo anterior resalta la importancia de que este tipo de población y en general
todas las mujeres embarazadas deben tener un estricto seguimiento a su estado de gestación, que
generalmente se compone de un control periódico de la evolución del feto, evaluación del peso
materno, determinación de los niveles de presión arterial, entre otros. Lo anterior concluyen en [6]
se constituyen en variables influyente en el bienestar maternofetal y en consecuencia de gran
utilidad para prevenir y reducir la mortalidad perinatal.
Acorde a lo anterior se puede inferir que el problema de la mortalidad materna es una situación
de cuidado en el país, que puede afectar a cualquier mujer embarazada, siendo la PE y los trastornos

100
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

hipertensivos como una de las causas más importantes. Situación que llevó a plantearse el siguiente
interrogante: ¿cómo prevenir o mitigar las complicaciones derivadas de la PE y trastornos asociados
en mujeres embarazadas en Colombia?, que de acuerdo con las referencias antes mencionadas y
diversos estudios de PE [7], [8] y [9], puede encontrarse que dicha prevención o mitigación está
asociada con la pregunta: ¿cómo realizar un diagnóstico oportuno? Debido a que en muchos casos
una atención oportuna puede reducir considerablemente el riesgo de mortalidad materna, lo que
conlleva al tercer interrogante: ¿cómo realizar un seguimiento efectivo a las mujeres embarazadas
con riesgo de PE?, esto con el fin de poder asistirlas adecuadamente y así prevenir una mortalidad
materna. Situación que aún no ha sido controlada eficientemente, lo que ha llevado a que aún no se
logre disminuir las tasas de mortalidad materna. Entonces acorde a lo anterior, el grupo Davinci a
través del proyecto Mothernet está trabajando para buscar contribuir en la solución del siguiente
problema: ¿Cómo realizar un monitoreo y seguimiento efectivo a la población de mujeres
embarazadas, con riesgo de PE en Colombia, identificadas en el control prenatal, que incluya todo
tipo de población, principalmente a los sectores menos favorecidos, permitiendo disminuir la tasa
de mortalidad materna asociada a estas causas?
La solución a esta pregunta que actualmente se está trabajando ha implicado realizar una
investigación en diferentes temas tales como: diagnóstico de la PE, diseño de sistemas de
información para atención médica, diseño y adecuación de sensores biomédicos para la medición
de la presión arterial a bajo costo, desarrollo de aplicaciones para teléfonos inteligentes y teléfonos
convencionales, entre otros aspectos, elementos que se comparten en este documento.
II. CONTEXTUALIZACIÓN: ESTADO DE ARTE DE LA PREECLAMSIA (PE)
La PE y sus tipos: La PE es un desorden multisistémico (es decir que puede afectar a varios
órganos sistemas) caracterizado por la presencia de hipertensión y proteinuria generalmente después
de 20 semanas de embarazo, esto conlleva cambios patológicos que afectan órganos como la
placenta, el riñón, hígado, cerebro, entre otros. De las complicaciones graves del embarazo es la
más común y temida, por lo que se debe diagnosticar y tratar rápidamente, ya que en casos severos
pone en peligro la vida de la madre y del producto de su gestación. La PE puede ser leve o severa,
de acuerdo a la siguiente condición clínica [10]:
1. PE leve: Presión arterial sistólica mayor o igual a 140 mmHg o mayor o igual a 90 mmHg de
diastólica en dos ocasiones, con cuatro horas de diferencia después de la semana 20 de embarazo
y proteinuria significativa mayor a 300 mg en 24 horas con cifras de presión arterial previamente
normales.
2. PE severa: Presión arterial mayor o igual a 160 mmHg de sistólica o mayor o igual a 110 mmHg
de diastólica en dos ocasiones con seis horas de diferencia después de la semana 20 de gestación,
la cual debe ser confirmada en un corto intervalo de tiempo (minutos) para iniciar la terapia.

Trabajos relacionados: En los referentes científicos se encuentran varios trabajos relacionados


con la inclusión de la tecnología en el cuidado de la salud, en esta a parte se resaltan algunos que
tienen relación con el proyecto propuesto:
 En [12] se encuentra estudio que hace referencia a una aplicación para la detección de
arritmias cardiovasculares, en pacientes no críticos para rehabilitación en espacios
cerrados y propone la arquitectura para la red y los nodos que la conforman.
 La Plataforma SHIMMER referenciada en [13], cuya sigla significa: Sensing Health with
Intelligence, Modularity, Mobility, describe una pequeña plataforma de sensores
inalámbricos diseñada por Intel para aplicaciones portátiles de cuidado de la salud.
Dentro de las aplicaciones estudiadas es la más completa a nivel de propuesta de
aplicación. Una limitante de la misma es el costo de implementación.
 En [14] se presenta un diseño integrado de vigilancia ubicua de salud en tiempo real
utilizando WBSN (Redes de Sensores Corporales Inalámbricos) y las nuevas tecnologías
como M2M y computación en la nube. Las características más importantes del estudio
son: un servidor médico inteligente ubicado en la nube y un dispositivo móvil inteligente
que actúa como router y coordinador o concentrador virtual en el lado cliente¬paciente:
esta solución ha sido diseñada para pacientes que no pueden tolerar interrupciones en su
seguimiento médico, para los cuales un sistema de monitoreo en tiempo real contribuye
a mantener sus vidas. El estudio es una propuesta tecnológica para el desarrollo futuro de
una solución ubicua.
 EDoctor: A Real Time Home Monitoring and Mobile Healthcare Plataform [15]:
Plataforma que pretende implementar un sistema en tiempo real de monitoreo y control
de pacientes, usa como red de transmisión de datos Bluetooth, donde cada paciente tiene

101
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

un teléfono inteligente (smartphone) como puerta de enlace (gateway) y un sensor como


detector de señales y variables médicas. Su propuesta es interesante pero el costo de
implementación es alto, los sensores son genéricos.
 Assessment of a telemetry monitoring system (Movicorde) developed in Cuba [16]:
Estudio controlado de pacientes con problemas cardiovasculares durante un periodo de
tres años con asistencia periódica a un centro de investigación acondicionado como
gimnasio, la novedad de este sistema es que captura de manera inalámbrica hasta 8
señales de pacientes al mismo tiempo y procesa la información en una base de datos para
su posterior análisis.
 Monitor de señales de electrocardiografía y frecuencia cardiaca mediante un teléfono
móvil con el protocolo de comunicación Bluetooth [17]: Es un estudio que propone la
captura de datos con un sensor ECG para el análisis de señales cardiacas, que envía los
datos del sensor al celular del usuario, hasta el momento ese es el máximo grado de
amplitud, a futuro los investigadores esperan que se use la red de telefonía celular para
difusión de la información capturada.

Como se puede observar, si bien existen trabajos relacionados, aún no se encuentra en Colombia
un sistema que propenda por un desarrollo científico que haga monitoreo y seguimiento a pacientes
con riesgo de preeclampsia, el cual ayude a mitigar la PE, permita un control eficiente del proceso
de gestación de las pacientes y utilice tecnología de bajo costo que esté al alcance de la población
vulnerable de manera efectiva.
Por lo anterior Mothernet se ha enfocado en la investigación para el desarrollo de un sistema de
monitoreo y seguimiento para mujeres embarazadas con riesgo de preeclampsia principalmente,
que involucra diseño de prototipos de hardware y software, desarrollo de un sistema para el
procesamiento de la información y diferentes aplicaciones que permitan un mayor control y
asistencia a este tipo de población.
III. DISEÑO DE PILOTO DE IMPLEMENTACIÓN DEL DISPOSITIVO IOT
El objetivo de Mothernet involucra actividades que relacionan: diseño y desarrollo del sistema
de información, construcción de software, diseño y construcción de dispositivos de hardware,
validación del dispositivo IoT y definición del modelo de prestación de servicio médico a
implementar. Mothernet inicialmente se aplicará a las pacientes del Hospital Universitario
Departamental de Nariño, quienes se hospitalicen o ingresen con un diagnóstico de trastorno
hipertensivo del embarazo o preeclampsia, que voluntariamente deseen participar en las pruebas de
los prototipos que se están diseñando y construyendo en el proceso, el cual fue sometida al comité
de investigación y ética del mismo hospital. Según la guía de práctica clínica para la prevención,
detección temprana y tratamiento de las complicaciones del embarazo parto y puerperio se
describen los factores de riesgo para preeclampsia
Factores de riesgo moderado
- Primer embarazo
- Edad mayor o igual a 40 años
- Intervalo intergenésico mayor a 10 años
- IMC mayor igual a 35 kg/m2 en la primera consulta
- Embarazo múltiple
- Antecedente familiar de preeclampsia

Factores de alto riesgo


- Trastorno hipertensivo en el embarazo anterior
- Enfermedad renal crónica
- Enfermedad autoinmune como lupus eritematoso sistémico o síndrome antifosfolípidos
- Diabetes tipo 1 y 2
- Hipertensión crónica

Se tiene como población objeto de la investigación a las mujeres embarazadas que se ingresan
al HUDN con diagnóstico de trastorno hipertensivo del embarazo o preeclampsia. La recolección
primaria de información se realizó mediante consultas a las bases de datos del HUDN con respecto
a pacientes que han asistido por problemas de preeclampsia. La segunda fase de recolección de
información se hará comparando los resultados de la medición de la presión arterial del dispositivo

102
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IoT con los dispositivos médicos o tensiómetros certificados La tercera fase de recolección de
información estará supeditada a los informes médicos que se generen a partir del proceso
desarrollado.
Las Fuentes primarias: Bases de datos del HUDN en cuanto a mujeres embarazadas con
diagnóstico de trastorno hipertensivo del embarazo o preeclampsia. Datos capturados con el
dispositivo IoT que permitan desarrollar informes médicos del seguimiento realizado.
Fuentes secundarias: Estadísticas relacionadas con la patología en estudio, información de la
OMS dispuesta en su portal y estadísticas de estudios similares en bases de datos especializadas en
Internet. Artículos especializados y relacionados con la temática de estudio.
Técnicas para procesamiento y análisis de datos: Sistemas estadísticos de análisis de
información cuantitativa Técnicas de minería de datos aplicadas con el software WEKA. Análisis
cualitativo de la información mediante los informes recibidos. En cuanto al diseño de protocolo de
atención se representa en la gráfica 1.
1. El médico evalúa inicialmente las condiciones de salud de la madre,
2. Se entrega el dispositivo IoT, que la madre llevará siempre en su brazo. De forma remota,
la salud de la madre se controla las 24 horas / 7 días a la semana desde el servicio de
información.
3. Cuando se encuentra una anomalía, el servicio de información comunica a los médicos a
cargo que si se presenta una alteración en las cifras de presión arterial, con el fin de
ayudar a la madre lo más pronto posible.
Alguno de los retos a desarrollar dentro de la propuesta del modelo de servicios es:
 Vigilancia y control de la salud 24/7.
 Dispositivo IoT de bajo costo
 Servicio efectivo

Grafica 1: Diseño del protocolo de atención médica

IV. DESCRIPCIÓN DE LA PROPUESTA TECNOLÓGICA


Acorde con el contexto antes explicado, Mothernet se dirige hacia mujeres en estado de gestación
con riesgo de preeclamsia, identificadas en el control prenatal, a quienes se les entregará un
prototipo que permite medir las cifras de la presión arterial 24/7, las cuales pueden afectar el
embarazo. El objetivo de este dispositivo es que funcione de modo autónomo y amigable llevando a
cabo el registro continuo de la presión arterial, de tal manera que permita brindar una asistencia
médica oportuna y de calidad por profesionales especializados en el manejo de la PE.

103
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

El dispositivo es un wearable (vestible), aún en fase de prototipo, que se busca sea cómodo para
la madre gestante y que pueda recoger los datos de la presión arterial, principalmente porque este
dato es una variable que permite acercarse a un diagnóstico de preeclampsia, por lo tanto ha sido
necesario estar constantemente haciendo la medición de la misma e indicar las alertas que se puedan
presentar para un mejor tratamiento de esta afección. Entre las diferentes posibilidades que se
contemplaron para realizar la captura del valor de la presión arterial de forma automática y que no
genere incomodidad en la pacientes para que puedan realizar sus actividades diarias sin problemas,
fue el desarrollo de una manilla o un dispositivo en forma de arete ó anillo, pero que se haga de una
manera no invasiva. Actualmente hay propuestas similares a la que se están desarrollando que
involucran sensores que permiten tener diferentes alternativas para el desarrollo de la medición de
variables como la presión arterial [20], como por ejemplo: el método de palpación, el método
auscultatorio, el método oscilométrico, entre otros, así como también dispositivos para el monitoreo
de esta variable. Mothernet se ha centrado en las mediciones que se realizan mediante los métodos
de fotopletismografia [21], tonometría por presión, y ECG [22], sobre los cuales hay desarrollo en
sensorica aplicada, que han sido el punto de partida para el diseño del dispositivo IoT.
Por otra parte, según [23], la telepresencia, entre otras tecnologías, tiene un impacto directo en
el desarrollo de alternativas como la que propone Mothernet, que apunta en acercar la tecnología a
la medición temprana de las variables biomédicas en casa. Además, los avances tecnológicos son
una constante en la sociedad actual y han generado que se viva en un mundo donde, minuto a minuto
se producen grandes cantidades de información proveniente de diferentes fuentes como:
computadoras, teléfonos móviles y sensores, que involucran tecnologías como la denominada Big
Data [23], la cual también es un referente que se ha tenido en cuenta a la hora de analizar la
información originada por las pacientes objeto de esta investigación (madres en gestación),
permitiendo tener un histórico de mediciones, y sus respectivos diagnósticos [24], el proyecto ha
trabajado con datos de los últimos 8 años. Además, la Internet del todo, o la Internet de las cosas
IoT [25], es una tecnología que para Mothernet sirve de referente en el desarrollo del proyecto,
puesto que permite comprender mejor el proceso de interconexión de los objetos (cosas), los datos
y la forma en que estos se suben a la nube, registrando de esta manera cada medición que se captura
de las pacientes con respecto a su presión arterial, registrando esta información en una base de datos
online.
En la gráfica 2 de puede observar de manera ilustrativa lo mencionado antes con respecto a las
tecnologías que involucra el proyecto, donde el diseño electrónico del proyecto Mothernet, se
compone de un conjunto de elementos electrónicos que conforman el dispositivo IoT que está
construyendo, el cual interactúa con una puerta de enlace o gateway para llevar la información a
un centro de datos o nube. Para llegar al diseño electrónico propuesto se realizó en primera instancia
el estudio de diferentes productos comerciales para considerar su forma de uso, su forma física, las
aplicaciones que manejan, el error de medición que presenta, entre otros aspectos, en la gráfica 3
se puede observar la forma de la pulsera de Maxim [25] que permite medir temperatura, ECG y
PPG.

Gráfica 2: Diseño electrónico proyecto MotherNet

104
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Gráfica 3 – Pulsera Maxim [25]

Por otra pare al realizar el análisis de manillas tipo fitness como la WearHeart [26], se encontró
que esta tiene diferencias en la medición con respecto a las mediciones realizadas en el Hospital
Universitario Departamental de Nariño con los equipos médicos que el personal médico utiliza, lo
que generó que se haga un análisis de calibración más preciso y más articulado con los dispositivos
médicos de alta precisión utilizados en estos centros. En pruebas iniciales se encontró que la
medición, de las manillas llamadas tipo fitness, tienen un error de precisión o variación con respecto
a los dispositivos médicos, mayor al 10%, situación que no es aceptable cuando la vida de una
persona está en riesgo. Este reto es uno de los que hace que el dispositivo aún sean un prototipo y
se busque mejorar disminuyendo este error en la medición. También, es necesario aclarar que en el
mercado existen dispositivos wearables [26], para la toma de mediciones de la presión arterial, de
los cuales se afirma son precisos y confiables, pero que al someterlos a una comparación con los
productos desarrollados específicamente para el uso en medicina, difieren mucho, quedándose en
dispositivos tipo fitness, pero que no ofrecen las garantías que proyectos como el de Mothernet
requieren. Por lo anterior en la investigación este reto es una de las metas que se busca solventar.
Acorde a lo anterior, el diseño electrónico y búsqueda de mejorar el prototipo que se tiene en el
proyecto Mothernet, es preciso afirmar como lo sostiene [27], que son muchas las etapas que se
deben realizar en el proceso de fabricación electrónica de un dispositivo IoT. En la tabla 1, se han
resumido estas etapas, las cuales se han venido trabajando dentro de la investigación.
Tabla 1: Diseño Electrónico
Etapa Descripción
Diseño, Cálculos Se han realizado los cálculos matemáticos necesarios para
conseguir un prototipo del dispositivo sensórico, de
adecuación de la señal y de la transmisión. Se diseñaron
los circuitos electrónicos en Software EDA [28].
CAD Se ejecutan las pruebas previas haciendo uso de software de
simulación electrónico, si no se cumplen las
características requeridas, se realiza un nuevo diseño y se
vuelve a simular, esto se debe hacer tantas veces como sea
necesario hasta conseguir un sistema que funcione
como se requiere [29].
Captura del esquemático Consisten en el procesamiento de esquemas
correspondiente al diseño, aplicando barra de títulos,
menús, herramientas área de trabajo. Según [30]
Diseño de pistas Se hace la creación del contorno de placas, se diseñan
pistas, y la conexión trazada según [30]
Control BoardMaster Se hace la simulación en el software. [31]
Micro fresado y Taladrado Se hace el desarrollo de tareas de creación de pistas en
CNC Baquelita, cortede laforma de la tarjeta, taladrado parala
inserción de componentes y sujeciones, se realiza con
maquinaria especializada [32].
PCB Se construye la tarjeta de circuito impreso, que es el
resultado de la fase anterior viene de (Printed Circuit
Board)[33].
Metalizado Taladrado Es la técnica mediante la cual se insertan remaches de
metal del conductor entre capas [34].

105
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Posicionado de componentes Se realiza la ubicación de todos los componentes para su


fijación y posterior proceso de soldadura
Soldadura Permite la conexión de los conductores y los componentes
obteniendo el máximo contacto, consiste en unir las
partes con un fundente usualmente aleaciones de estaño
[35].
Ajustes Se realiza las revisiones de conexiones, soldaduras revisión de
la norma de aceptabilidad electrónica, conectores,
control de calidad [36].
Prototipo Este es el paso final en el cual se tiene el prototipo
hardware después del ejercicio de diseño electrónico [36].

Luego de haber desarrollado el prototipo como se describe en la tabla 1, es necesario realizar el


desarrollo del firmware o software que soportará el mismo, que será el encargado de capturar las
variables en este caso el valor de la presión arterial y enviarlo al gateway para su posterior
procesamiento en el centro de datos. El software luego del dispositivo es una plataforma Web que
se encarga de enviar alertas al centro médico, actualmente se está trabajando esta parte con el
lenguaje PHP en un hosting próprio, al corto plazo se espera tener esta plataforma funcionando en
el HDUN.
V. SISTEMA DE INFORMACION SOCIAL
Como se muestra en la gráfica 1, el monitoreo de las pacientes en embarazo requiere una
integración entre diferentes actores, los cuales procuran el bienestar de la paciente. El sistema de
información que permite comunicar a estos actores se convierte en un punto central donde converge
la información que se genera en las diferentes acciones que realizan las personas involucradas en el
cuidado de la paciente y la tecnología usada como apoyo a ese cuidado. De acuerdo a [37] el sistema
de información permite capturar, almacenar, actualizar, manejar, analizar y desplegar toda la
información que se genera desde el dispositivo de Internet de las cosas IoT, que porta la paciente.
A continuación, se menciona la interacción de dicho sistema de información donde se involucra
personas y dispositivos de Internet de las cosas IoT, los cuales suministran datos a dicho sistema, lo
anterior con el propósito de examinar dicha información para sacar conclusiones esenciales sobre
estado de salud de la paciente para generar las alertas convenientes para el cuidado de la misma
[38]. Como se observa en el gráfico 4 el Sistema de información centraliza varios elementos que
permiten la interacción continua de la información que fluye desde el dispositivo de Internet de las
Cosas IoT que posee la paciente con riesgo de preeclamsia la cual se guarda en la base de datos del
sistema central. En adelante con la información suministrada al sistema generan diferentes procesos
como son: actualización del estado de salud de la paciente en la historia clínica de la paciente siendo
el documento más importante en la relación médico paciente como los expresa [39], generación de
alertas las cuales se emiten según el estado de la paciente con riesgo de preeclamsia a los diferentes
dispositivos de comunicación conectados al sistema central.

Gráfica 4. Sistema de Monitoreo MotherNet.

106
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VI. CONCLUSIONES
Para mitigar esta enfermedad, el grupo Davinci de la UNAD y el Hospital Universitario
Departamental de Nariño (HUDN) vienen trabajando en un sistema remoto de tele-Preecalmsia,
que se compone de una plataforma de software, un dispositivo IoT que mide la presión arterial
periódicamente y un protocolo de atención y monitoreo que se debe ser aplicado con los anteriores
elementos. El sistema busca que cuando se presente una anomalía, este informe al personal médico
a cargo, el riesgo de preeclampsia latente, con el fin de ayudar a estas mujeres lo antes posible y se
evite complicaciones mayores. Así como también de esta manera contribuir a alcanzar los objetivos
de desarrollo sostenible propuestos por la OMS: “para 2030 reducir la tasa mundial de mortalidad
materna a menos de 70 por cada 100.000 nacidos vivos”.
Como las complicaciones de la preeclampsia son potencialmente mortales para una mujer
embarazada y su feto, se pretende implementar éste sistema de monitoreo en las pacientes
hospitalizadas en el HUDN, con el diagnóstico de preeclampsia y quienes son manejadas según
protocolos clínicos por el servicio de ginecología y obstetricia. Ellas harán parte de la plataforma, se
les facilitará el dispositivo IoT que registrará la presión arterial, enviará los datos al centro de tele-
monitoreo y pondrá en alerta al personal médico ante una posible alteración que registre el sistema.
El dispositivo IoT no es invasivo y no intervendrá en el protocolo de atención de dicho centro, sino
que será un elemento de ayuda en el monitoreo de este tipo de pacientes.
Con esta solución, las complicaciones de la preeclampsia se pueden minimizar
significativamente. Actualmente, se ha desarrollado un prototipo funcional del dispositivo IoT, el
cual está en proceso de mejoramiento. Se ha previsto que esta tecnología se implemente en
Colombia, pero se puede expandir a otros países con alto riesgo de preeclampsia.
En lo tecnológico, los resultados buscan crear un spin off en Colombia, basada en la tecnología
IoT, para beneficiar a las mujeres embarazadas que viven en áreas remotas. En lo social, debido a
que Colombia tiene amplias regiones donde el servicio de salud es ineficiente y los recursos son
limitados, el sistema de tele preeclamsia pretende intervenir en estas regiones. La tecnología ha
evolucionado de manera importante en los últimos años, la salud es uno de los campos de acción
donde se aplicar con grandes resultados.
VII. AGRADECIMIENTOS
Agradecimiento a las organizaciones: Universidad Nacional Abierta y a Distancia UNAD,
grupo de investigación Davinci y al Hospital Universitario Departamental de Nariño – HUDN.
VIII. REFERENCIAS BIBLIOGRÁFICAS
[1] DíazMartínez, L. A., & SerranoDíaz, N. C. (2008). OPORTUNIDADES DE INVESTIGACIÓN EN
PREECLAMPSIA, DESDE LA PERSPECTIVA DE PREVENCIÓN PRIMARIA. UN ARTÍCULO DE REFLEXIÓN A
paper aimed at inviting reflection on. Revista Colombiana de Obstetricia y Ginecología, 59(3), 206215.
[2] Piedrahita Ochoa, C., & Agudelo Jaramillo, B. (2010). Preeclampsia: un problema complejo para enfrentar desde su
fisiología. Med. Lab, 16(11/12), 547560.
[3] Cinets, A. (2013). GUÍA DE PRÁCTICA CLÍNICA PARA EL ABORDAJE DE LAS COMPLICACIONES
HIPERTENSIVAS ASOCIADAS AL EMBARAZO1 Clinical practice guidelines for approaching pregnancyassociated
hypertensive complications Revista Colombiana de Obstetricia y Ginecología,64(3), 289326.
[4] Ospina, M. L., Martínez, M. E., Pacheco, O. E. & Bonilla, H. Q. (2016). Protocolo de Vigilancia en Salud Pública.
Morbilidad Materna Extrema.
[5] Herrera, J. A., HerreraMiranda, R., HerreraEscobar, J. P., & NietoDíaz, A. (2014). Reducción de la mortalidad
materna por preeclampsia en Colombiaun análisis de series de tiempo interrumpido. Colombia Médica, 45(1), 2531.
[6] Flores NavarroPérez, C., González Jiménez, E., Schmidt RioValle, J., MenesesEchávez, J. F., Martínez Torres, J., &
RamírezVélez, R. (2015). Factores sociodemográficos y seguimiento prenatal asociados a la mortalidad perinatal en
gestantes de Colombia.
[7] Carlos Hernán, B. M., DíazMartínez, L. A., ContrerasGarcía, G. A., BeltránAvendaño, M. A., SalazarMartínez, H. A.,
GutiérrezSánchez, L. Á., ... & MontezumaNiño, L. C. (2015). Maternal and foetal outcomes in twin pregnancies seen at
Hospital Universitario de Santander, Bucaramanga (Colombia), 20072011: A cohort study. Revista Colombiana de
Obstetricia y Ginecología, 66(1), 3745.
[8] Díaz, L. M., & Chávez, B. M. (2015). Maternal Complications in Adolescents and Adults Affiliated to the subsidized
regime, [Link] Facultad Nacional de Salud Pública, 33(2), 2062014.
[9] Camacho Terceros, L. A., Rodríguez, B., & Carmen, M. (2015). Una mirada clínica al diagnóstico de preeclampsia.
Revista Científica Ciencia Médica,18(1), 5055.
[10] Arroyo V ?asquez, C.I.J.: Factores de riesgo independientes para la presencia de
preeclampsia. (2014) [11]ACOG.2013.
[Link]
[12] Martínez, D., Blanes, F., Simo, J., Crespo, A.: Redes de sensores y actuadores inalámbricas: Una caracterización y caso
de estudio para aplicaciones médicas en espacios cerrados. XXIX Jornadas de Automática. Universidad Rovira i Virgili
de Tarragona, España (2008)
[13] Asensio González, A., Miguel Núñez, A., Pascual García, J.: Diseño de un simulador para redes de sensores (2009).
[14] Kaschel Cárcamo, H., Pérez Bahamondes, J.: Monitoreo ubicuo de salud en tiempo real con wbsn. Ingeniare. Revista
chilena de ingeniería 22(2), 169176 (2014)

107
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Enseñar programación a todos usando


Arduino
Teaching computer programming to everyone
using Arduino
Esteban Arias-Méndez
Escuela de Computación
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
[Link]@[Link]

Resumen — La programación de computadoras hoy en día es una de las habilidades más importantes que se
pueden aprender para el futuro. En el presente documento se exponen algunos puntos de vista sobre la
experiencia de enseñar programación de una manera diferente a la clase tradicional utilizando una herramienta
más interactiva, para atraer una mayor atención e interacción haciendo uso de la plataforma la plataforma de
hardware abierto Arduino. Además, se revisan los problemas encontrados sobre el uso del idioma inglés en
personas que no tienen un manejo de dicho idioma de forma nativa en el proceso de aprendizaje de un lenguaje
tradicional de programación de computadoras.

Palabras clave: Arduino; responsabilidad social educativa; programación.


Abstract — Computer programming today is one of the most important skills that can be learned for the future.
In the present document some points of view on the experience of teaching programming in a different way to
the traditional class are exposed using a more interactive tool, to attract greater attention and interaction making
use of the platform the open hardware platform Arduino. In addition, the problems encountered regarding the
use of the English language in people who do not have a native language management in the learning process of
a traditional computer programming language are reviewed.

Keywords: Arduino, educational social responsibility, computer programming.

I. INTRODUCCIÓN
Tradicionalmente para enseñar a programar sistemas basados en computadoras se usa la estrategia de
abstraer ideas acerca de un problema a resolver, describir la solución paso a paso, diagramar o esbozar la
estructura de la solución, entre otros. Luego de haber hecho esto, se traducen las ideas, codificándolas usando
un lenguaje de programación. Esta estrategia requiere que la abstracción ocurra en el pensamiento del
programador lo cual no es tan fácil de lograr, por otro lado, el aprender a programar puede considerarse como
un buen entrenamiento para el desarrollo del razonamiento en sí mismo. Esta habilidad es útil como
mecanismo para aprender a desarrollar la capacidad de resolver problemas de forma ordenada, consciente y
con un mayor grado de análisis, buscando responder interrogantes de la mejor manera posible. Con la forma
en que la tecnología domina cada vez más nuestras vidas, el aprender a programar ya no es solo una buena
idea, sino una habilidad esencial para la vida cotidiana y para una movilidad social ascendente en el corto,
mediano y largo plazo. El profesor Mitchel Resnick del MIT ha indicado que: así como hace unos años era
importante que los niños aprendieran a leer y escribir, aunque no fueran a trabajar como periodistas o
escritores, era una necesidad para la vida diaria, y que eso es equivalente hoy en día a que los niños aprendan
a programar [4]. Agrega el autor que: más importante aún, cuando se introduce a un niño a la programación,
en el proceso, él o ella no solo está aprendiendo a programar código, sino que está codificando para aprender
[4].
En un artículo del Huffington Post [5] el autor señala que: codificar construye confianza en la propia
habilidad para aprender y crear, así como orgullo al crear algo, opuesto a otras formas de aprender, que puede
causar confusión y frustración en el aprendizaje.

108
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Desde el año 2016, en el marco de un convenio de colaboración entre el TEC de Costa Rica y el Parque
La Libertad (en adelante PLL) en Desamparados, San José de Costa Rica, se inició el ejercicio de enseñar a
programar a casi 50 niños de 8 años en adelante, utilizando la plataforma de código abierto y bajo costo
Arduino ([Link]). En el año 2015 también se habían impartido talleres similares, pero en este caso
a adolescentes y adultos.
Por otro lado, a nivel global iniciativas como la Hora de Programación (Hour of Code) en el marco de la
celebración de la Semana Educativa de las Ciencias de la Computación ([Link]); de la organización
Code ([Link]), se dedican a la visión de llevar a todos los estudiantes la oportunidad de aprender a
programar, gracias a la donación de millones de dólares de filántropos, corporaciones, fundaciones e
individuos particulares.
En el sitio web [Link], que habla del porqué de ciencias de la computación indicando: “Todos
los estudiantes deben tener la oportunidad de aprender Ciencias de la Computación. Ayuda a fomentar las
habilidades de resolución de problemas, la lógica y la creatividad. Introducir a los estudiantes de forma
temprana en las ciencias de la computación, les permitirá disponer de conocimientos imprescindibles en el
siglo XXI; fundamentales sea cual sea su futuro desarrollo profesional.” [6].
Las experiencias desarrolladas desde 2016 con los niños y niñas del Parque La Libertad, así como en el
centro Cultivarte en Guácimo y cursos libres en Casa Cultural del TEC en Barrio Amón, señalan que es
posible proveer una estrategia de aprendizaje en torno a la programación que sea más dinámica y menos
abstracta, donde el conocimiento se aplique y se ponga a prueba con resultados inmediatos para facilitar la
comprensión y asimilación de los estudiantes independientemente de su edad. Por ahora, el único requisito
que se debe de considerar es que la persona pueda leer y escribir. Posteriormente se explorarán otras formas
para desarrollar actividades y talleres incluso para los más pequeños o personas que no sepan leer y escribir.
En nuestro caso, la estrategia metodológica que se propone está basada en una interacción inmediata
entre el estudiante y su entorno de aprendizaje. El curso sobre Programación con Arduino que se brinda, y
en especial para el caso de los niños del PLL, es una introducción a conceptos básicos en programación y
circuitos eléctricos.
En este sentido existe ahora una gama de nuevos dispositivos como la plataforma de bajo costo y código
abierto (opensource) llamada Arduino ([Link]) que desde hace más de 10 años nace basado en el
proyecto doctoral Wiring ([Link]) del colombiano Hernando Barragán (arduino- [Link]) en
el Interaction Design Institute Ivrea (IDII), Italia. El proyecto italiano derivado, Arduino, ha revolucionado
la forma en como personas, que no tienen conocimiento técnico sobre computadoras, programación o cómo
realizar circuitos eléctricos, pueden hoy en día, con una instrucción de pocas horas y sin experiencia previa,
empezar a programar y probar circuitos que involucran sensores y utilizar los datos que capturan para
procesarlos y generar resultados o producir salidas en dispositivos que pueden generar una experiencia muy
interactiva con el usuario como luces, motores, sonidos, etc. Para esto, el usuario debe utilizar el lenguaje de
programación de Arduino.
Arduino es el nombre general que se le da a las placas de circuitos impresos que junto a un
microcontrolador (versión simplificada de un microprocesador), memoria y otros componentes electrónicos
de bajo costo facilitan la utilización de la electrónica y la programación en sistemas pequeños, también
llamados empotrados, en proyectos multifuncionales.

II. ESTRATEGIA METODOLÓGICA PROPUESTA


A. Deconstruir – Reconstruir
Aunque inicialmente la idea base de los talleres parte del hecho de enseñar Arduino como tal: sus
conceptos básicos, armar circuitos, conectar y usar sensores, etc., se descubre durante el avance del desarrollo
de estos, que lo realmente importante para que un proyecto a futuro sea más avanzado y tenga éxito es el
nivel de conocimiento que debe adquirir un estudiante al programar.
Es entonces que se observa en el uso de la plataforma Arduino un vínculo fuerte que sirve como una
herramienta útil para promover el interés en la programación. Los componentes y sensores de Arduino lo
hacen muy llamativo y su uso es de rápida absorción de aprendizaje para los estudiantes y usuarios. Al tener
los estudiantes una retroalimentación inmediata, principalmente mediante la interactividad que proveen sus
elementos, motiva a los estudiantes a la experimentación, crear escenarios diferentes a los propuestos, hacer
pruebas distintas a las de un guion dado por el instructor. Y promueve de forma más ventajosa un aprendizaje
más integral, más dinámico y más entretenido, incluso para los más pequeños.

109
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

B. Arduino vs abstracción al programar frente a una pantalla


El atractivo principal de la plataforma, además del bajo costo y su facilidad de uso, es principalmente el
hecho de que los estudiantes pueden poner en práctica de forma inmediata lo que aprenden. Los resultados
son visibles y tangibles al usuario. Esto permite tener retroalimentación instantánea sobre lo que se ha
desarrollado, bien o mal, de forma más tangible que abstracta lo que permite al estudiante asimilar de forma
más rápida y con una experiencia más natural lo que está aprendiendo. Adicionalmente la plataforma da
rienda suelta a la experimentación, lo que promueve la creatividad. Agregar o cambiar componentes sin
necesidad de hacer mayores cambios estructurales permite a la persona usuaria nuevamente asimilar de mejor
manera lo que aprende y poder ir más allá de lo que se le ha enseñado de forma vertical.
En este proceso de enseñanza-aprendizaje se eliminan los temores que pueden tener algunos estudiantes
al no poder reproducir de forma exacta algunos ejercicios dados por el instructor. Sino que más bien, se
brinda una guía de los aspectos técnicos claves y es el estudiante mismo el que aplica los conocimientos base
y desarrolla su propio escenario y caso, muchas veces dando paso a múltiples versiones y casos posibles
aplicados por los estudiantes.
C. Compartir experiencias
Los resultados que se han obtenido hasta ahora han sido satisfactorios en la respuesta de los estudiantes,
al observarlos avanzar por su cuenta hacia nuevos retos, planteándose inter- rogantes sobre las posibilidades
en que se podría aplicar o usar algún elemento del material brindado. Esta curiosidad es la acción que genera
la necesidad de querer aprender más y de una manera que no es impositiva o restringida del conocimiento
sino más bien que fluye de forma natural.
Se han podido observar los logros alcanzados por los niños del CIJ en el PLL, al constatar mediante la
realización de diversos proyectos guiados, el avance alcanzado por los niños en la implementación y
resolución de los problemas planteados.
Es interés nuestro que esta experiencia positiva alcanzada con los grupos de trabajo en el PLL se pueda
expandir a más grupos, otros centros educativos y otras comunidades. No solo replicar, sino sugerir y que se
adapte a cada espacio y comunidad para apropiarse y mejorarlo.
En [1] se indica la Responsabilidad Social Educativa como: la disposición voluntaria de la institución
educativa que, como espacio natural de posibilidades sociales, favorece el despliegue de sus miembros hacia
los demás y el entorno y puede ser medida por medio de evidencias estandarizadas. Es acá donde la
Universidad, y el TEC en especial, debe ser un agente promotor de cambio al aplicar el conocimiento que se
tiene y se construye en actividades de beneficio para poblaciones mayores, más allá de los estudiantes, como
la comunidad y la sociedad en general. En este proceso se involucran a los estudiantes que, como futuros
profesionales, se pueden sensibilizar sobre las múltiples realidades de las necesidades de la sociedad. Esto
genera un valor de conciencia y responsabilidad social mayor en cada uno como persona y profesional.
D. Obstáculos en el tiempo
Siempre que se quiere hacer algo nuevo y diferente se debe aprender en el proceso. Se busca siempre
minimizar los riesgos, pero es natural que afloren aspectos no considerados previamente o que antes no
habían sido mayor riesgo.
1) Idioma
A pesar de haber trabajado previamente con diversos grupos, muy heterogéneos en áreas de interés y
edades, las herramientas como tal siempre habían sido bien recibidas por los estudiantes. En el caso de los
niños del PLL y Guácimo, los principales problemas afrontados fueron:
i. El ambiente de texto plano para programar fue percibido por la mayoría como algo
“aburrido” y “poco llamativo”.
ii. El idioma inglés en las palabras claves del lenguaje de programación hacía más difícil de
comprender el código de programación.

La premisa sobre los lenguajes de programación de alto nivel y su “facilidad” al asemejarse al lenguaje
natural, deja de ser cierta cuando nos referimos a personas que no son nativos hablantes del inglés o que no
conocen mucho de este idioma.
2) La robótica en el país
En el país se puede palpar que ha habido un creciente interés por la robótica en especial por el auge de
eventos como las Olimpiadas Mundiales de Robótica promovido por LEGO y de la cual Costa Rica fue sede
en 2017. Para poder desarrollar robótica, un estudiante, además de aprender a armar cosas con las diferentes
partes o piezas que posea, debe, principalmente, aprender a programar para que su nuevo robot pueda hacer
lo que éste desee.

110
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

El hecho que la mayoría de las personas en algún momento hayan empleado LEGO y que esta marca
provea ahora una plataforma denominada Mindstorms para realizar programación básica para construir
diversos robots usando piezas de LEGO, ha hecho que muchos quieran aprender dicha plataforma. Incluso
el gobierno ha invertido muchos millones de colones en la compra de kits para distribuirlos en centros
educativos en todo el país.
Aunque LEGO es una plataforma fácil de usar, encontramos varios problemas con el uso de esta:
i. El principal de los problemas es el elevado costo de cada kit. Cada uno se puede conseguir en
el mercado local en un valor alrededor de los $500 el kit básico, el kit de extensión por un valor
cercano a los $400 para poder realizar proyectos mayores. Estos precios distan mucho de los
$25 que vale un Arduino original o los $5 que pueden costar versiones genéricas. Y si hablamos
de kits, con unos $50 se puede conseguir un kit amplio con muchos componentes para trabajar.
ii. El segundo de los problemas es que LEGO es una plataforma cerrada.
E. Proceso Horizontal
Todos los procesos de enseñanza se han implementado buscando una estrategia horizontal entre el
instructor y los estudiantes. Tomar lo mínimo de la clase magistral para reducirlo a una explicación breve,
concisa e introductoria a algunos concretos básicos e inmediatamente ponerlos en práctica dando el control
del proceso al estudiante. Esto da paso a que el instructor y los asistentes de cada taller acompañen 1 a 1 a
los estudiantes, aclarando dudas puntuales en lo que van haciendo, resolviendo problemas en frente de ellos
en su propio espacio de trabajo.
Como se ha mencionado antes, una vez que los estudiantes alcanzan el reto u objetivo propuesto se
observa que, sin necesidad de más indicaciones, empiezan a hacer cambios, pruebas en sus pequeños
proyectos, dando paso a la experimentación y su propia creatividad. Nuevas dudas surgirán, y es acá donde
el instructor o un asistente atienden de forma personalizada las interrogantes. Pero lo más importante, el nivel
de comprensión alcanzado por los estudiantes es casi inmediato.
F. Estrategias metodológicas para generar destrezas
En esta estrategia metodológica que se ha desarrollado no se realiza un proceso de evaluación tradicional.
Se cree en el aprender haciendo. El bajar el nivel de abstracción de ideas al programar y tener de forma
tangible resultados es una forma inequívoca de ver y medir el progreso de los estudiantes. Se busca que el
aprendizaje sea más natural, tranquilo y amigable.

III. LECCIONES APRENDIDAS


El principal obstáculo encontrado no tiene que ver con las destrezas intelectuales o motoras de las
personas participantes, sino con una barrera de idioma que no se había considerado inicialmente. De esta
forma se presentan alternativas y algunas soluciones que proponen una estrategia metodológica para enseñar
conceptos que, por su naturaleza son abstractos, de forma más tangible y amigable, y que el idioma no sea
una limitante para aprender desde cualquier edad.
Para brindar un contexto al lector se brindan acá breves descripciones de algunos eventos o actividades
llevados a cabo y herramientas utilizadas durante los procesos descritos.
A. Uso de Kit oficial Arduino
En primer lugar, se debe mencionar que la mayor parte de los talleres brindados se han basado en el uso
del kit oficial de Arduino, el cual provee una placa Arduino UNO para trabajar y algunos elementos básicos
para desarrollar circuitos con elementos simples como luces LED, motores y algunos sensores simples. El
kit utilizado está acompañado de un manual en español que brinda una serie de ejercicios paso a paso que le
dicen al usuario cómo armar los circuitos y el código fuente que debe utilizar para programar el Arduino y
que funcione de la forma esperada. Las explicaciones en el manual son en realidad muy básicas, reuniendo
únicamente conceptos básicos y generales. Para una mayor comprensión de cada laboratorio, y en especial
para personas que no son expertos en computación o en programación, se debe hacer un abordaje más amplio
dando una clase o explicación oral en cada momento.
La razón principal de usar el kit es debido al libro que se encuentra en español, está bien ilustrado a
colores con gran contenido gráfico y brinda paso a paso guías de los ejercicios dados. La desventaja del
material es que no hace un abordaje previo para introducir la programación como tal.
B. Talleres CIJ, PLL
La mayor parte de todas las actividades realizadas se han concentrado en el Centro Infantil y Juvenil
(CIJ) del PLL: talleres gratuitos, eventos cortos en varios sábados, celebración del día del niño y la niña y se
dio inicio a un club de programación con 3 grupos de entre 12 y 20 estudiantes durante 3 meses.

111
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

C. Otras experiencias:
1) Cursos Casa Cultural Barrio Amón TEC
La segunda actividad más frecuente son los cursos-taller que se han brindado en la Casa Cultural Barrio
Amón del TEC en San José. Se han impartido desde mediados del 2015. Son cursos cortos abiertos a la
sociedad. En estos cursos se han matriculado desde estudiantes de colegio, personas pensionadas, profesores
de colegio y universidades, empresarios, artes plásticas y dramáticas, diseñadores, y estudiantes de
arquitectura, por mencionar algunos. Las experiencias generales siempre han sido positivas. Los estudiantes
aprenden los conceptos básicos de Arduino, su programación y los elementos básicos para proyectos simples.
2) Guácimo – Cultivarte
A raíz de los talleres dados en el PLL, el Banco Davivienda nos invitó a realizar una actividad en el
primer centro del Proyecto Cultivarte que abrieron en el país en Guácimo de Limón. Acá se brindaron dos
talleres de circuitos con Arduino de 3 horas cada uno, a cerca de 25 niños de la zona, además se realizaron
otras actividades tipo juegos para enseñar conceptos básicos de computación a niños usando como base el
manual “Computer Science in a box” desarrollado por el National Center for Women and Information
Technology [7]. El interés mostrado por estos estudiantes, en su gran mayoría de primaria, fue notorio. Los
niños mostraron interés en poder contar con dicho equipo para seguir trabajando con el mismo de forma
personal. El único material que pudimos dejar fue la referencia a una herramienta digital en línea, gratuita y
que brinda un simulador de Arduino virtual ([Link]).

IV. CONCLUSIONES
En los años recientes se ha podido constatar que lo que inició como una idea de colaboración para una
actividad culminó siendo el inicio de un proyecto mucho más amplio que sigue aún en desarrollo. Con poca
planificación logramos impactar a más de 250 niños de las comunidades aledañas al Parque La Libertad y
en Guácimo de Limón, en el primer año. En los años recientes se han atendido en diversas actividades más
de 2000 estudiantes de escuela y colegio en diversos centros educativos y regiones del país. Se dio inicio a
un proceso más formal mediante los clubes de programación en el PLL que han continuado este año.
De los talleres dados se concluyó entre otras cosas que, en los impartidos a niños, la herramienta para
programar utilizada no fue la más apropiada, esto entre otras cosas por ser un ambiente tradicional de
programación, con una interfaz en texto plano y principalmente porque la sintaxis del lenguaje de
programación de Arduino es en inglés.
Con miras a mejorar las experiencias alcanzadas en pro de llegar a más estudiantes y de mejor manera es
que continuaremos ampliando y desarrollando este proceso. Con este problema en mente se requiere
organizar y consolidar este tipo de actividades involucrando nuevos agentes participativos del trabajo (que
hasta ahora se ha realizado de forma aislada), para tener un abordaje más integral, constructivo, dialógico e
interdisciplinario. Con ello se busca brindar soluciones a los procesos de enseñanza-aprendizaje en la
programación, usando Arduino como ayuda, en contextos acordes con las condiciones socioculturales y
pedagógicas de Costa Rica y extenderlas al contexto latinoamericano. Para ello se busca brindar herramientas
oportunas y adecuadas en los procesos de enseñanza-aprendizaje para la construcción de estructuras de
razonamiento creativo, lógico-deductivo, concreto y abstracto por medio de lenguajes adecuados para niños
y niñas de todas las edades.

V. AGRADECIMIENTOS
Se agradece a todas las personas que han acompañado este proceso que nunca ha sido un trabajo
individual sino de colaboración y de muchos voluntarios y se espera que nuevos cómplices se sigan sumando
en este proceso.

VI. REFERENCIAS BIBLIOGRÁFICAS


[1] L.M. Martínez, Responsabilidad Social y Comunicación Institucional en los Centros Educativos. Derecom, vol 14, pp. 69-84,
2013.
[2] UNESCO, Diagnóstico de Consumo Sociocultural de la zona de influen- cia del Programa Conjunto. 2009.
[3] UNICEF, La inversión social pública en la Infancia 2000-2008. 2011.
[4] M. Resnick. (2013) TED on Let’s teach kids to code. [Online]. Available: [Link]
[5] (2016) Vidcode on Coding Allows Learning Disabled Students to Shine. [Online]. Available: [Link]/QmvioF
[6] HourOfCode. [Online]. Avaible: [Link]
[7] (2008) Computer Science in a box on Unplug Your Curriculum. [Online]. Available: [Link]/M7sSQ

112
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VII. BIOGRAFÍA

Esteban Arias-Méndez es Ingeniero en Computación y profesor de la Escuela de Computación del


Instituto Tecnológico de Costa Rica (TEC Costa Rica). Ha dado cursos sobre Introducción a la
Programación, Fundamentos de Organización de Computadoras, Arquitectura de Computadoras,
Sistemas Operativos, Compiladores e Intérpretes, Estructuras de Datos, Análisis de Algoritmos,
Computación y Sociedad y Biología Molecular Computacional. Desde 2014 utiliza la plataforma
Arduino en algunos de sus cursos, desde el 2015 brinda cursos de Arduino abiertos a la comunidad. En
2016 colaboró enseñando programación a niños en el Parque La Libertad, adscrito al Ministerio de
Cultura Juventud y Deportes de Costa Rica, y desde entonces en otros centros educativos brindando
visitas y realizando talleres de Introducción a la Programación usando Arduino de forma voluntaria con
el apoyo de estudiantes del TEC Costa Rica, usando programas de código abierto y de hardware abierto
como Arduino. Recientemente apoyó el Proyecto Niñas en Tecnología del Parque La Libertad con becas
por parte de la Embajada de Canadá y de la empresa EMERSON. Coordina el Proyecto: Programación
La Nueva Alfabetización con la colaboración de estudiantes voluntarios del TEC Costa Rica.

113
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Alfabetización STEAM para las niñas y niños


de Centroamérica
En el contexto del Proyecto Niñas en Tecnología desarrollado en el Centro
Infantil y Juvenil del Parque La Libertad, Costa Rica

STEAM Literacy for girls and boys in Central


America.
In the context of the Girls in Technology Project developed at the Children
and Youth Center of La Libertad Park, Costa Rica

Diana Alvarado-Solano, Esteban Arias-Méndez


Escuela Ingeniería en Producción Industrial, Escuela de Computación
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
dialvarados@[Link], [Link]@[Link]

Resumen — Dentro del proyecto ‘Programación: La Nueva Alfabetización’ se proponen sesiones de trabajo para
invitar a los niños a explorar el aprendizaje de la ciencia y la tecnología, esto a través de la implementación de
talleres de STEAM relacionados con temas de informática, junto con ejes transversales de autoestima, trabajo
en equipo, igualdad de género, valores personales y sociales, y sostenibilidad ambiental. Se propone romper los
esquemas tradicionales para trabajar el método didáctico constructivista, donde el conocimiento se adquiere del
juego y la exploración en espacios menos formalizados, estimulando la creatividad, la curiosidad y el deseo de
aprender del participante. La experiencia hasta el momento ha demostrado cómo este espacio permite adquirir
conocimiento como una construcción donde el valor de cada participante se destaca, sus cualidades y
capacidades, tanto como individuos como miembros de un equipo; hacia el empoderamiento de las niñas y niños
en áreas científico-tecnológicas utilizando el arte, la ciencia y las matemáticas como herramientas de ingeniería
para la creación de sus propias aplicaciones científico-tecnológicas en armonía y respeto por el medio ambiente.

Palabras clave: STEAM; constructivismo; ciencias de la computación; pensamiento creativo; programación de


computadoras.
Abstract — Within the project ‘Programación: La Nueva Alfabetización’ the working-sessions are proposed to
invite the children to explore the learning of science and technology, this through the implementation of STEAM
workshops related to computer science topics together with transversal axes of self-esteem, teamwork, gender
equality, personal and social values and environmental sustainability. It is proposed to break traditional schemes
to work constructivist didactic method, where knowledge is acquired from the game and exploration in less
formalized spaces, stimulating the participant's creativity, curiosity and desire to learn. The experience so far
has shown how this space allows acquiring knowledge as a construction where the value of each participant
stands out, their qualities and capacities, both as individuals and a member of a team; leading towards the
empowerment of children in scientific-technological areas using art, science and mathematics as the engineering
tools for the creation of their own scientific-technological applications in harmony and respect for the
environment.

Keywords: STEAM; constructivism; computer science; creative thinking; computer programming.

I. INTRODUCCIÓN
El Proyecto Niñas en Tecnología se desarrolló en el Centro Infantil y Juvenil del Parque La Libertad, el
cual se encuentra ubicado entre los cantones de Desamparados, Curridabat y La Unión en Costa Rica. El

114
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Parque La Libertad (PLL) es un proyecto del Ministerio de Cultura y Juventud del Gobierno de Costa Rica
y gestionado en alianza público-privada por la Fundación Parque La Libertad. Éste ha sido concebido como
un espacio de desarrollo humano e inclusión social que busca mejorar la calidad de vida de las comunidades
aledañas mediante su desarrollo económico, social y ambiental, ofreciendo oportunidades para su formación
técnica, artística, cultural y ambiental [1]. Con este proyecto se buscó, como piloto, impartir de forma gratuita
una serie de dieciséis semanas de clases tipo taller sobre STEAM1 experimental orientado, en esta ocasión,
completamente a niñas de edades desde los cuatro hasta doce años utilizando el espacio tecnológico con el
cual cuenta el Centro Infantil y Juvenil (CIJ) del PLL. Ver Figura 1.

Figura 1. Centro Infantil y Juvenil, Parque La Libertad. Fuente: Cortesía CIJ-PLL.

El CIJ, dentro de su oferta programática organizada en clubes semestrales, utiliza varios ejes temáticos
como lectura, matemática, teatro o programación y robótica como un medio para el desarrollo de habilidades
sociales y de aprendizaje alternativo promoviendo ejes transversales de trabajo en equipo, innovación,
creatividad y desarrollo de pensamiento lógico matemático [2]. En el Proyecto Niñas en Tecnología, se
propuso introducir a las niñas al pensamiento STEAM combinando ciencia, tecnología, ingeniería, arte y
matemática. El objetivo principal fue explorar un espacio de aprendizaje científico-tecnológico que le
permita a las niñas el desarrollo de sus capacidades creadoras y un planteamiento más fluido del aprendizaje
desde la primera infancia, mediante la interacción más estrecha con experiencias educativas menos
formalizadas que resulten en nuevas oportunidades de experimentación e innovación [3].
En el año 2016, se impartieron por primera vez talleres de programación en el CIJ. La razón entre niños
y niñas participantes fue de una niña por cada cinco niños [2]. El género viene siendo un factor tradicional
de desigualdad en la educación, casi siempre en perjuicio de las niñas y mujeres [3]. De ahí se deriva la
equidad de género como uno de los principales ejes transversales del Proyecto Niñas en Tecnología; así se
solventa la necesidad de generar y ofrecer espacios más inclusivos y gratuitos donde las niñas comprendan
que son sujetos de derecho y personas capaces de aprender sobre tecnología [5]. Se quiere incentivar a las
niñas a incursionar cada vez más en el área de ciencia y tecnología para con ello construir una sociedad más
equitativa.
Una de las ideas del proyecto Niñas en Tecnología en el CIJ fue convertirse en soporte para el aprendizaje
integral, adquiriendo destrezas para la vida, innovadoras y autocríticas; permitiendo así un desarrollo más
activo en su aprendizaje y sus procesos cognitivos. La expectativa fue lograr aprender a ser y aprender a
vivir juntos, creando conocimiento a través de la exploración de la ciencia y la tecnología [3].
“La educación es una de las bendiciones de la existencia, y una de sus necesidades. Hoy... no soy una voz solitaria,
soy muchas voces. Soy esos 66 millones de niñas que carecen de acceso a la educación. Y hoy no soy yo quien habla,
sino la voz de 66 millones de niñas.”
Discurso de aceptación del Premio Nobel de la Paz por Malala Yousafzai en Oslo,
10 de diciembre de 2014.

1
El acrónimo STEAM corresponde al nombre en inglés de la combinación de ciencia, tecnología, ingeniería, arte y matemáticas integradas
en la educación. Los programas STEAM instan al aprendizaje en formas creativas para diseñar y aproximarse a los problemas del mundo real
utilizando el arte y las matemáticas como base junto con el pensamiento crítico y metodología de la ciencia e ingeniería.

115
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

El proyecto Niñas en Tecnología se desarrolló con un primer grupo de 140 niñas a lo largo de doce
semanas de diciembre 2017 a marzo 2018 en las instalaciones del CIJ-PLL, y luego un segundo grupo de 40
niñas en una Escuela urbano marginal en otra zona entre los meses de marzo y junio del 2018. Para la
ejecución del Plan de Lecciones del proyecto, se contó con un equipo multidisciplinario conformado por
facilitadores del CIJ-PLL y el Instituto Tecnológico de Costa Rica; además, fue auspiciado primeramente
por la Embajada de Canadá y el segundo grupo por la multinacional Emerson. De manera que, el equipo de
facilitadores atendió conjuntamente, en sesiones de dos horas semanales, a niñas de entre los cuatro y doce
años provenientes de las Escuelas aledañas al PLL en el primer caso y de la Escuela David Marín Hidalgo
de Bebedero de Escazú y los cantones aledaños al Parque La Libertad para el segundo grupo [5].
Se busca con esta propuesta el deseo de poder llevar a más niñas y niños la experiencia vivida con este
proyecto, de forma tal que podamos acercarles a la Ciencia, la Tecnología, la Matemática y el Arte de forma
más intuitiva, asertiva y entretenida; y exportar esto a todos los países centroamericanos y más allá.

II. CONSTRUCTIVISMO
Un desafío decisivo en la educación es la búsqueda de caminos alternativos, de opciones para la
construcción de un mundo solidario, para ello es vital un cambio de conciencia, que procure procesos
creativos. El conocimiento teórico es el primer referente de un individuo en proceso de formación. El
aprendizaje es un cambio persistente en el desempeño humano o en el desempeño potencial que debe
producirse como resultado de la experiencia del aprendiz y su interacción con el mundo.
Según Luz Emilia Flores [6], del Centro de Investigación y Docencia en Educación (CIDE), la educación
en el paradigma tradicional no se encuentra vinculada de forma sensible con la vida; se ha encerrado en sí
misma y se ha negado a aprender de la vida. En los diversos niveles del sistema educativo, se impone una
manera de ver el mundo la cual: reprime la alegría, la espontaneidad y la libertad de expresión mediante
políticas o directrices que mantienen las condiciones sociales hegemónicas, utilizando mecanismos
jerárquicos de control.
Con respecto al constructivismo, actualmente la metodología educativa busca una aplicación de este, un
aprender a aprender, donde las y los discentes reflexionen y analicen sobre sus propias experiencias de
aprendizaje. Las habilidades cognitivas son entendidas como operaciones y procedimientos que puede usar
el estudiante para adquirir, retener y recuperar diferentes tipos de conocimientos y ejecución “[…] suponen
del estudiante capacidades de representación (lectura, imágenes, habla, escritura y dibujo), capacidades de
selección (atención e intención) y capacidades de autodirección (auto programación y autocontrol)” ([7] p.
2).
Del constructivismo piagetiano emanan tres directrices para la educación [6]:
1) Utilizar métodos que apelen a la actividad mental espontánea.
2) Quien educa es un acompañante, quien minimiza el ejercicio de la autoridad, estimulando la
iniciativa, el juego, la experimentación, el razonamiento y la colaboración social.
3) La vida social entre los niños y las niñas presenta una extensa oportunidad de cooperación,
incluyendo el conflicto cognitivo, en situaciones que promuevan el deseo de coordinar las acciones con
otras personas.

A. Constructivismo en el sistema educativo costarricense


En la educación costarricense, los docentes administran el currículo de acuerdo con su formación
pedagógica, tomando en cuenta las directrices y lineamientos enviados por el Ministerio de Educación
Pública, MEP, para desplegar los programas de estudio; además, los educadores le ofrecen al estudiantado
actividades curriculares atractivas. Sin embargo, al observar la práctica pedagógica, se trabaja a nivel de
contenido y no en evaluar las habilidades de pensamiento con que llegan los estudiantes a las aulas [7].
Normalmente, la capacidad de vincular los aprendizajes con la vida cotidiana no la logran los estudiantes
en los salones de clase, sino que estos aprendizajes se logran por el contacto con espacios informales como
bibliotecas, revistas, en el entorno, visitas a museos, entre otros. El espacio tecnológico del CIJ-PLL
representa una oportunidad para llevar a cabo vivencias curriculares, espacios que bien aprovechados dan un
valor agregado a la educación. Este espacio permite desarrollar las destrezas a las que hoy se aspira, apuntan
a una educación constructivista, se toma el desarrollo de un pensamiento crítico que privilegie aspectos
fundamentales como la observación, la experimentación, la resolución de problemas y la fundamentación de
opiniones con base en la evidencia. Los hechos cambian y la información se multiplica a una velocidad
increíblemente rápida: lo que se necesita es una comprensión de cómo abarcar y darle sentido a todo [7].

116
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

III. ¿POR QUÉ ALFABETIZACIÓN STEAM?


El proyecto Niñas en Tecnología prepara a cada una de sus participantes en conceptos y herramientas de
STEAM que les permitan entender y manejar conceptos de ciencias de la computación extrapolados a las
tareas más comunes en el día a día. En las sesiones de trabajo se invita a las niñas a explorar el espacio
creativo utilizando las artes y matemáticas como herramientas fundamentales de la ingeniería, ciencia y
tecnología.
Al inducir el aprendizaje desde STEAM, junto con la programación, se está codificando para aprender;
codificar construye confianza en la propia habilidad para aprender y crear algo por lo cual se siente orgullo
[4]. Para los niños de hoy nada es más importante que aprender el pensamiento creativo, aprender cómo
obtener soluciones innovadoras a las situaciones inesperadas que se encuentren a lo largo de sus vidas. En
un futuro, las habilidades de programación serán básicas para el desarrollo de una carrera profesional y la
interacción con la tecnología con la cual se construye el mundo [8].
Existe a nivel mundial un creciente movimiento el cual busca que todas las personas aprendan, desde la
educación primaria, las bases de programación. El aprender ciencias de la computación con bases STEAM
ayuda a fomentar las habilidades de resolución de problemas, lógica y creatividad; además, permite disponer
de conocimientos fundamentales para el desarrollo de aplicaciones tecnológicas futuras [2]. El profesor
Mitchel Resnick, del MIT Media Lab., asegura que: así como hace unos años era importante que los niños
aprendieran a leer y escribir, aunque no fueran a trabajar como periodistas o escritores, hoy en día los niños
deben aprender a programar para las profesiones del futuro. Programar resulta una habilidad útil para resolver
problemas de forma ordenada, consciente y con un mayor grado de análisis, buscando responder
interrogantes como si se estuviese construyendo código de programación [9].
Se entiende entonces la importancia de crear estas habilidades desde la infancia temprana mediante el
uso de espacios cada más creativos. Cada una de las sesiones de trabajo desarrolla un pequeño taller STEAM
alrededor de un tema asociado a las ciencias de la computación. Durante la sesión de trabajo, se incorpora el
pensamiento científico-tecnológico, la ingeniería, el arte, las matemáticas y el cuidado del medio ambiente;
además, éste se convierte para la niña en un objeto para pensar con. Las participantes aprenden a construir
las herramientas para comprender su propio aprendizaje, y pensar en pensar durante su proceso de
construcción, migrando de consumidores a creadores [8].

IV. SESIONES DE TRABAJO


Niñas en Tecnología consta de dieciséis sesiones de trabajo de dos horas semanales en las instalaciones
del CIJ-PLL construidas con base en un Plan de Lecciones. Éstas son impartidas por un equipo
multidisciplinario en grupos, de hasta veinte niñas, divididas según su edad: 4 a 6 años y 7 a 12 años. Cada
uno de los grupos de edad posee un planeamiento específico donde, aunque se abarcan iguales objetivos,
contenidos y actividades, se modifican aspectos de ejecución y cuánto se profundiza en los conceptos según
el grupo de edad y conocimientos previos de las participantes.
La estructura de trabajo de cada una de las sesiones permite desarrollar un taller STEAM con las
participantes alrededor de un tema de ciencias de la computación. Los facilitadores combinan materiales más
tradicionales, como papeles, crayones, goma y tijeras, con elementos tecnológicos, como tabletas
electrónicas, Arduino UNO y computadoras de bajo costo tipo RaspberryPi, dentro de las sesiones de trabajo
invitando constantemente a las niñas a extrapolar las experiencias del taller en su entorno y cotidianidad.
Durante la sesión de trabajo se desarrollan actividades de introducción, proyecto de clase, una referencia a
alguna destacada mujer internacional y nacional STEAM y un experimento. Como actividad final, se pide a
las niñas trabajar en una hoja de bitácora o diario donde se refleja lo aprendido durante la sesión de trabajo.
La estrategia de aprendizaje de temas relacionados con las ciencias de la computación de los talleres
STEAM promueve un entorno más dinámico y menos abstracto, donde el conocimiento se aplique y se ponga
a prueba con resultados inmediatos para facilitar la comprensión y asimilación de las participantes. La
experiencia previa en programas similares del Parque La Libertad, Cultivarte y el TEC, ha demostrado la
efectividad de esta aproximación. Las sesiones son dirigidas por los facilitadores; y las participantes son
guiadas por el proceso de exploración del concepto de clase mediante el desarrollo de actividades planeadas
y entrelazadas donde se invita a cuestionar el funcionamiento, elección de materiales y mecanismos de
construcción conforme con la metodología STEAM. La libertad de cuestionar durante el proceso de
enseñanza-aprendizaje permite a la participante aplicar sus conocimientos base y desarrollar su propio
escenario; resultando en múltiples versiones y casos posibles de resolución, generando la necesidad de querer
conocer más y mejor las herramientas y maximizar el potencial de la solución creada [4].
Se toman en cuenta lecciones aprendidas de experiencias similares respecto al uso de las herramientas
adecuadas, promoviendo el uso de Arduino. El Arduino es el nombre general de las placas de circuitos
impresos junto con un microcontrolador, memoria y otros componentes electrónicos. Con este dispositivo se

117
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

puede programar, probar circuitos eléctricos que involucren sensores, capturar datos para procesarlos y
generar resultados o producir salidas utilizando un lenguaje de programación de Arduino. Aprender a utilizar
un Arduino genera una experiencia muy interactiva con el usuario quien construye tanto el hardware como
el software de su aplicación tecnológica. Con esto, además, se promueve el uso de hardware y software libres
con bajo costo económico, buena resistencia y versatilidad de sus aplicaciones [4].

V. PLAN DE LECCIONES
El Plan de Lecciones es un documento desarrollado como parte de la sistematización de la primera etapa
del proyecto Niñas en Tecnología. Este documento es utilizado como base para la ejecución, abarcando los
principales ejes temáticos de ciencias de la computación. Se incluye, además, historia de la ciencia al
presentar una mujer STEAM histórica al igual que una mujer costarricense destacada en el ámbito científico
y tecnológico. En él, se describen los temas a tratar a lo largo de las semanas, objetivos y métodos sugeridos
para desarrollar las clases. En cada una de las sesiones de trabajo se incorporan elementos propios de la
metodología STEAM, junto con los ejes transversales de valores sociales y personales, cuidado del medio
ambiente, empoderamiento y equidad de género. De manera global, se sugieren actividades de clase para
desarrollar en la sesión de trabajo, así como material complementario como vídeos de entrevista de diferentes
mujeres ejemplifican casos de éxito en el área científico-tecnológica.
El arte es utilizado en las lecciones como un medio creativo; una expresión de nuestras capacidades
creadoras. El arte debe ser expuesto. Bajo esta consigna, se dispone de un espacio dentro de CIJ-PLL donde
los proyectos de clase, sobre todo aquellos colectivos, se exponen al público en general. Esto permite a las
niñas valorarse como creadoras al sentirse orgullosas e identificadas con su trabajo; e inclusive permite
retomar las lecciones aprendidas en las anteriores sesiones conforme se avanza en el Plan de Lecciones. En
paralelo, en cada sesión de trabajo los facilitadores recogen las anotaciones, bocetos, fragmentos de ideas
que las niñas desarrollan para el proyecto de clase con la intención de adjuntarla en sus respectivas bitácoras
de trabajo. La intención de esta recolección es documentar el proceso de aprendizaje de cada una y, sobre
todo, devolver a la niña, al finalizar el proyecto, una bitácora donde evidencie todo lo aprendido y cómo ellas
mismas construyen conocimiento a lo largo del programa.
A. Autoestima y trabajo en equipo
La primera sesión de trabajo se trata de dar a conocer a las participantes el porqué del proyecto, el valor
de su participación para el desarrollo de las clases y se presenta el concepto STEAM como metodología de
trabajo. En esta lección, se trabaja un Taller de Autoestima donde las niñas construyen un autorretrato digital,
utilizando una aplicación de edición de fotografías, con la cual agregan elementos decorativos a sus retratos
que expresen su personalidad y cualidades. Este autorretrato se complementa con la construcción de un
portarretratos personalizado donde ellas pueden expresar quienes sueñan ser. Este ejercicio, les permite a las
niñas valorar su propia personalidad y plantearse la pregunta inicial acerca de un proyecto de vida. La
intención no es solo el retrato, es invitar a las niñas a destacar sus cualidades, sentirse valiosas y capaces de
construir. El trabajo en equipo es parte de esta primera sesión de trabajo, al hacer un llamado a la cooperación
entre compañeras y respeto a las diferencias entre pares. La intención es lograr crear un ambiente de trabajo
en el cual las participantes se sientan valiosas, respetadas e importantes; para si mismas, con su trabajo
individual y como parte de un equipo con el cual cooperan para lograr el mejor resultado. Ver Figura 2.
B. ¿Cómo funciona una computadora?
Se considera, como parte de todo proceso de alfabetización, las participantes deben conocer acerca de
los principios básicos del funcionamiento de una computadora. Estos conceptos, sirven de base para una
comprensión del porqué de las cosas, cómo lograr que nuestro código de programación resulte y cómo
transferir órdenes a un computador para desarrollar nuestras propias aplicaciones tecnológicas. Para esto, se
disponen cuatro sesiones de trabajo donde se presentan los principios más abstractos de ciencias de la
computación: cómo funciona una computadora, lenguaje binario y encriptación. La presentación de estos
conceptos, junto con la metodología STEAM, se realiza mediante juegos, actividades de construcción de
proyectos de clase que incluyen elementos de arte y matemática y pequeños experimentos científicos;
además, serán retomados y fortalecidos en las diferentes lecciones. Ver Figura 3.
Las siguientes dos secciones de trabajo del Plan de Lecciones, trata acerca de algoritmos. El objetivo de
esto es lograr que las participantes relacionen el concepto de algoritmo a actividades del día a día para así
poder trasladar los conocimientos a escenarios digitales. En una primera parte, se tratan algoritmos sencillos;
posteriormente, se diferencia entre algoritmos generales y específicos. Las niñas, entonces, ya empiezan a
construir piezas de código para crear sus primeras aplicaciones tecnológicas fundamentándose en cómo
funciona una computadora y cómo se transite la información; encontrándose capaces de comunicarse con los
microprocesadores Arduino UNO por medio de un lenguaje de programación en bloques en el idioma
español utilizando la plataforma Arduino Blocks ([Link]

118
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 2. Sesión de trabajo sobre autoestima y trabajo en equipo. Fuente: Cortesía CIJ-PLL.

Figura 3. Sesión de trabajo ¿Cómo funciona una computadora? Fuente: Cortesía CIJ-PLL.

C. Eje Ambiental
Costa Rica es un país destacado en temas ambientales, con acciones desde el Gobierno Central, de las
cuales el PLL forma parte, donde se reitera el compromiso con la meta de Carbono Neutralidad para el año
2021. “El gobierno de Costa Rica mantiene y fortalece su compromiso con la meta de Carbono Neutralidad
para el 2021 y el proceso de des-carbonización de la economía por lo cual propone acciones climáticas para
que las y los ticos puedan contribuir a la meta país” ([10], p.1). En este sentido, existe, a mitad del programa,
una sesión especial donde se enfatiza el cuidado del medio ambiente. Esta pretende generar una conciencia
en las participantes acerca de cómo sus acciones como creadoras de tecnología pueden ser alinearse con el

119
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

equilibrio y bienestar de la naturaleza. La creación tecnológica no debe resultar disruptiva para nuestro medio
ambiente; por el contrario, se busca promover el cuidado y uso óptimo de los recursos, minimizar la
contaminación por desechos generados y reutilizar materiales como materia prima alterna dentro de un marco
de armonía y respeto con nuestro entorno. Se aprovecha el Eje de Gestión Ambiental con el cual cuenta el
PLL. Este recurso es utilizado por el proyecto como una sesión alterna para las niñas donde ellas
experimentan un día de campo con una gira al Centro de Acopio donde se invita a las niñas a cuestionarse
sus acciones cotidianas, y como creadoras de tecnología, para vivir en armonía con la naturaleza destacando
la sostenibilidad.
D. Convertirse en creadora de tecnología
Un proceso de alfabetización tradicional inicia conociendo las formas y figuras con las cuales se
conforman las letras, aprendiendo las vocales y, posteriormente, añadiendo las consonantes para construir
sílabas con las cuales se construyen las palabras. Este también es un proceso de alfabetización, pero hacia la
programación y todas las ramas STEAM; la exposición de las participantes a conceptos de ciencias de la
computación en su nivel más básico permite que las niñas puedan empezar a construir aplicaciones
tecnológicas más completas. Las sesiones de trabajo se enfocan en la construcción de proyectos con un mayor
grado de complejidad y abstracción, por parte de las participantes, de las funcionalidades que cumplen.
Durante este tiempo, se desarrollan proyectos en colectivo entre las participantes que pueden extenderse a lo
largo de varias sesiones; siempre agregando y fortaleciendo el conocimiento previamente adquirido y la
metodología STEAM. De igual manera, se trabajan los ejes transversales del programa como la equidad de
género y cuidado del medio ambiente.
E. Internet
El Plan de Lecciones finaliza con dos sesiones en las cuales se trata con las niñas el Internet como tema
central. Se pretende las participantes comprendan el funcionamiento e importancia del Internet en la vida
actual, incluyendo aplicaciones asociadas al Internet de las cosas (IoT), y las implicaciones de seguridad en
su uso.
F. Las 16 Lecciones
Para referencia del lector se brinda acá un detalle general de todos los temas tratados cada se semana, sus
objetivos, contenidos y aprendizaje buscado. El detalle micro de las actividades, experimentos, personaje
STEAM histórico de relevancia internacional y nacional y los experimentos de cada sesión será parte del
contenido que se publicará como detalle de una guía metodológica para el público en general.
1) Semana 1: Introducción - Persistencia y Trabajo en equipo. Objetivo: Aprender la importancia
de perseverar sobre la frustración para facilitar los procesos creativos mediante el trabajo en equipo donde
se acepta el papel de cada individuo, destacando el respeto en las diferencias, sus cualidades y aptitudes.
Contenidos: Autoestima, trabajo en equipo, principios físicos, tensión superficial. Aprendizajes:
Autoestima, conocerse a sí mismo en una cualidad da la seguridad necesaria para la construcción de la
autoestima del participante, entendiéndose como un ser único, valioso e individual quien merece ser
apreciado por sus cualidades.
2) Semana 2: Computadoras - ¿Cómo funciona una computadora?. Objetivo: Conocer el
funcionamiento de una computadora para despertar en las participantes curiosidad creadora de sus propias
tecnologías al mostrar elementos básicos de hardware y software. Contenidos: Tecnología, ciencias de la
computación y circuitos eléctricos. Aprendizajes: Tenacidad: incentivar el compromiso como motores de
cambio en las participantes. Mente abierta: capacidad de análisis, síntesis y evaluación de conceptos
abstractos y complejos como los de circuitos eléctricos al buscar analogías del mundo real.
3) Semana 3: Computadoras - Lenguaje binario. Objetivo: Describir a las participantes el lenguaje
binario utilizado en los códigos de programación de computadoras. Contenidos: Lenguaje binario,
programación, reacciones químicas. Aprendizajes: Iniciativa: destacar el espíritu de innovación en la
resolución de nuevos retos de manera pro activa. Superación: destacarse en áreas de la ciencia complejas,
e inclusive desconocidas, como viajar a la Luna o crear al ingeniero de software, se logra siendo pro activa,
entusiasta y optimista.
4) Semana 4: Teoría de la Información - Criptografía. Objetivo: Mostrar la importancia de la
encriptación en la transmisión de mensajes para evitar la corrupción o el escape de información. Contenidos
Encriptación, aritmética modular, modelos de color, geometría. Aprendizajes: Percepción: obtener un
primer conocimiento de nosotros mismos por medio de las impresiones que comunican nuestros sentidos
al cuestionar nuestra genética y la predominancia de un lado de nuestros cuerpos.
5) Semana 5: Teoría de la Información - Comunicación como selección. Objetivo: Entender los
principios de la teoría de la información aplicados a la comunicación entre humanos y computadoras.
Contenidos: Teoría de la información, comunicación, composición de la atmósfera terrestre. Aprendizajes:
Atención al entorno: cuestionarse la composición de nuestra atmósfera y cómo afecta la vida en la biosfera

120
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

es una manera de prestar atención al entorno y el impacto de nuestras acciones y patrones de consumo en
el medio ambiente. Colaboración: el manejo de la información requiere de la cooperación entre los
participantes de manera que se logre intercambiar la información.
6) Semana 6: Algoritmos - ¿Qué es un algoritmo?. Objetivo: Extrapolar el concepto de algoritmos a
actividades del día a día, para así trasladar los conocimientos a escenarios digitales. Contenidos:
Algoritmos, estilo de vida, física. Aprendizajes: Prudencia: al considerarse cada una de las acciones
necesarias para poder llegar a un resultado, y cómo éstas deben ser ordenadas y consecuentes, se piensa,
ante ciertos acontecimientos o actividades, sobre los riesgos posibles que estos conllevan, y adecuar o
modificar la conducta para no recibir o producir perjuicios innecesario.
7) Semana 7: Algoritmos - Algoritmos complejos. Objetivo: Aprender las diferencias entre
algoritmos generales y algoritmos específicos. Contenidos: Algoritmos, geometría, líneas y ángulos,
simetría, culturas internacionales, pintura, dibujo. Aprendizajes: Aprecio por la cultura: al mostrarle a las
participante cómo el arte y la programación pueden fusionarse para la creación de tecnología se invita a la
reflexión acerca de aspectos culturales y vivimos el arte en la cotidianidad. Sensibilidad: despertar en las
participantes la capacidad o propensión naturaleza emocionarse ante la belleza y los valores estéticos de las
construcciones naturales.
8) Semana 8: Medio Ambiente - ¿Cómo crear en armonía al medio ambiente?. Objetivo: Generar
conciencia sobre las acciones que cada persona puede realizar para reducir la contaminación del planeta.
Contenidos: Medio ambiente, ecosistemas, tradiciones costarricense. Aprendizajes: Compromiso con el
desarrollo sostenible del país y sus comunidades: deseamos que las participantes se conviertan en creadoras
de tecnología, utilizando la ciencia como base. La creación tecnológica debe ir de la mano con un desarrollo
sostenible, respeto por el medio ambiente mediante el uso óptimo de los recursos, la selección de procesos
y materiales de bajo impacto ambiental.
9) Semana 9: Introducción a la robótica - Conceptos básicos. Objetivo: Aprender a reconocer los
conceptos fundamentales de la robótica y su funcionamiento. Contenidos: Hardware y software, óptica,
reacciones químicas, física del lanzamiento de cohetes. Aprendizajes: Tenacidad: destacar como la
tenacidad es una fuerza que impulsa a continuar con empeño y sin desistir en algo que se quiere hacer o
conseguir como construir un computador programable y explorar atmósferas de otros planetas de nuestro
Sistema Solar. Visión del entorno internacional: Nuevo paradigma de la era espacial promovido por la
empresa SpaceX donde los cohetes espaciales son reutilizables al lograr aterrizarlos nuevamente en
plataformas oceánicas.
10) Semana 10: Introducción a la robótica - Mi primer robot. Objetivo: Practicar los conocimientos
acerca de programación de Arduino UNO en un contexto más complejo, creando programas para un
vehículo. Contenidos: Programación por bloques, algoritmos complejos, arte, empatía, colaboración y
trabajo en equipo. Aprendizajes: Entusiasmo y libertad: durante la lección los niños se entusiasman creando
a partir de los materiales dados como instrumentos innovadores sencillos los cuales en conjunto son capaces
de resolver problemas más complejos.
11) Semana 11: Pensamiento computacional - Debugging. Objetivo: Reconocer la importancia de
poder descubrir errores en un programa y cómo corregirlos. Contenidos: Algoritmos, debugging código,
plan de vida, fuerza de gravedad. Aprendizajes: Capacidad de análisis, síntesis y evaluación: la exploración
de diversas soluciones para los retos se presentan requieren de habilidades de comprensión para lograr los
objetivos propuestos. Constancia: desarrollo durante las actividades de detección y corrección de error de
la voluntad inquebrantable y continuada en la determinación de hacer una cosa o en el modo de realizarla.
12) Semana 12: Motivación - La creatividad en la ciencia. Objetivo: Aprender sobre la importancia
de la creatividad en los procesos experimentales en áreas de ciencia y tecnología. Contenidos: Procesos
creativos, física de fluidos, péndulos, colores, manejo de la información. Aprendizajes: Creatividad: las
actividades pretenden dar a entender a las participantes el valor de la creatividad en las actividades
científicas y el desarrollo del conocimiento. Es a través de la creatividad que nuevos fragmentos de ideas
surgen, se invita a la exploración y se construye conocimiento.
13) Semana 13: Programación - Estructuras de control - If. Objetivo: Aprender acerca de los
condicionales en código: por qué son importantes, cuándo y cómo los uso. Contenidos: Condicionales,
eficiencia, cristalización, alimentación saludable. Aprendizajes: Experimentación: las participantes logran
identificar, mediante la experimentación y exploración de conceptos científicos básicos, los productos
obtenidos a partir de una reacción química. Igualmente, son capaces de construir una pieza personal
utilizando conocimientos de química.
14) Semana 14: Programación - Estructuras de control - Bucles. Objetivo: Aprender sobre los bucles
en código: por qué son importantes, cuándo y cómo los uso. Contenidos: Bucles de programación,

121
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

geometría. Aprendizajes: Colaboración: durante el desarrollo de las actividades las participantes requieren
de cooperar con sus compañeras y facilitadores para lograr construir los elementos de la clase.
15) Semana 15: Internet - ¿Cómo funciona el Internet?. Objetivo: Aprender de forma dinámica
conceptos como URL, IP Address, DNS, email, etc. Contenidos: Internet, materiales, transmisión de
señales, ciberseguridad. Aprendizajes: Determinación de soluciones y alternativas: el cambio en nuestro
mundo se acelera a través de una revolución en la forma en la cual nos comunicamos y manejamos la
información. Los participantes logran aprender a cooperar para lograr tareas, comprendiendo cada quien
cumple un papel importante y la combinación de los fragmentos de ideas permiten completar los retos
planteados.
16) Semana 16: Internet - Ciudadanía de Internet. Objetivo: aprender sobre seguridad en Internet y
cómo comunicarse de una mejor forma, aprendiendo sobre cyberbullying y cómo lidiar con él. Contenidos:
ciberseguridad, comunicación. Aprendizajes: sociabilidad: los participantes comprenden cómo Internet
constituye una herramienta social, con reglas de convivencia como la etiqueta, que no es más que una
adaptación de las reglas de etiqueta del mundo real al virtual. Respeto a la dignidad de las personas, sus
deberes, derechos inherentes como la libertad y la seguridad.

Figura 4. Actividad de cierre con bitácora diaria de trabajo. Fuente: Cortesía CIJ-PLL.

VI. CONCLUSIONES
Este es un proceso en desarrollo, a la fecha, se han desarrollado las sesiones de trabajo semanales con las
niñas asisten al CIJ-PLL, además, en paralelo, se inició una experiencia de aprendizaje similar en un centro
educativo de preescolar y primaria donde se atiende un grupo mixto de cuarenta niños y niñas. La
aproximación de las niñas participantes a los conceptos fundamentales de ciencias de la computación durante
esas semanas ha desarrollado una mayor confianza en ellas acerca de temas científico-tecnológicos, además
de una mayor apertura a nuevas temáticas, con mayor grado de profundidad y complejidad. Esto se refleja
en el entusiasmo con el cual las niñas participaron de las sesiones de trabajo y construyen los proyectos de
clase.
Durante las lecciones desarrolladas, se incentiva a la reflexión respecto a temas de equidad de género
invitándoles a verse reflejados en las figuras destacadas en áreas STEAM, tanto histórica internacionalmente
como nacionales. Esto ha creado una conciencia en las participantes, en especial para el grupo de 7 a 12 años,
al encontrarse con una mujer quien se atrevió a romper las barreras de género para desarrollar una carrera
profesional en áreas científico-tecnológicas. Se instó a las niñas, a partir de ahí, a reflexionar acerca de un
proyecto de vida propio y las diversas etapas del sistema educativo, presentándoles en paralelo algunos
centros de educación superior e investigación científica-tecnológica costarricenses.

122
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Los diversos espacios con los cuales cuenta el CI-PLL junto con las actividades de juego son
aprovechadas por los facilitadores para introducir los conceptos de clase a las niñas. Se ha encontrado las
niñas sienten un gran interés por la construcción de los proyectos de clases guiadas por la oportunidad de
convertirse en creadoras mezclando elementos tradicionales con tecnología. Ellas encuentran en la
construcción del proyecto de clase una aplicación del conocimiento recién adquirido. Los experimentos
causan curiosidad en las niñas por aprender más acerca de ciencia y la observación de la naturaleza y su
entorno como oportunidades de aprendizaje. Por último, la bitácora de clase permite a las niñas reflexionar
acerca de qué aprendieron durante la sesión y se convierte en una importante evidencia para los facilitadores
acerca de la capacidad de abstracción de nuevo conocimiento por parte de las participantes.
Se reconoce la importancia de reafirmar nuevos conceptos, como la metodología STEAM, de manera
que, el conocimiento sea aún más significativo y permanente. La constancia y empeño con el cual se
desarrollaron las lecciones es una de las claves del éxito del proyecto, esto con el fin de lograr el objetivo
máximo del mismo conducir a las niñas hacia el empoderamiento en áreas científico-tecnológicas utilizando
el arte, la ciencia y la matemática como las herramientas ingenieriles para la creación de sus propias
aplicaciones científico-tecnológicas en armonía y respeto con el medio ambiente.

VII. AGRADECIMIENTOS
Deseamos agradecer al personal del Centro Infantil y Juvenil: Gabriela Pereira Carpio, su coordinadora
y a Maritza Rivera Valverde, Kristel Castro Leiva por su apoyo en el desarrollo de las actividades. A Irene
Sánchez por su colaboración con el desarrollo del contenido temático de las lecciones y su diagramación. A
Vanesa Solano Quirós, Saúl Quirós Valverde, Luis Alonso Montero, Iván Camacho León, Bryan Hernández
Ortiz, Oscar Vega Morúa y Felipe Salas Casasola por su gran dedicación en la ejecución de las sesiones de
trabajo con las chicas cada semana. A doña Dora María Sequeira Picado, directora Ejecutiva del PLL por
abrir las puertas del PLL a nuestro trabajo desde el TEC. A Mauricio Arroyo Herrera, exdirector de la Escuela
de Computación del TEC por su apoyo y motivación recibido todo ese tiempo.

VIII. REFERENCIAS BIBLIOGRÁFICAS


[1] Fundación Parque Metropolitano La Libertad: Parque La Libertad http: //[Link]/
[2] Arias-Méndez, E. y Pereira-Carpio, G. Programación: La Nueva Alfabetización. Introduciendo a la Programación a niñas y
niños en el Parque La Libertad. Trama, Revista de Ciencias Sociales y Humanidades, 6(2): 26-39, 2017.
[Link]
[3] Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO. Replantear la educación ¿Hacia un
bien común mundial?. UNESCO, París, Francia, 2015.
[4] Arias-Méndez, E. y Pereira-Carpio, G. Programación: La Nueva Alfabetización. Enseñar Programación a niños, jóvenes y
adultos usando la plataforma Arduino. Simposio Argentino sobre Tecnología y Sociedad (STS) - JAIIO 46 (Córdoba, 2017).
[Link] 10915/64464.
[5] Cámara de Tecnología de Información y Comunicación. “Parque La Libertad y Emerson Costa Rica unen fuerzas
para potenciar interés de niñas y adolescentes en carreras tecnológicas.” CAMTIC: [Link]
parque-la-libertad-y-emerson-costa-rica-unen-fuerzas-para-potenciar-interes-de-ninas [Marzo 18, 2018].
[6] Flores Davis, L. E. El placer de aprender. Revista Electrónica Educare, XIV, 41-47, 2010.
[Link] 194115343004.
[7] Araya Ramírez, N. Las habilidades del pensamiento y el aprendizaje significativo en matemática de escolares de quinto grado
en Costa Rica. Revista Electrónica “Actualidades Investigativas en Educación”, 14 (2), 1-30, 2015.
[Link]
[8] Dasgupta, S. y Resnick, M. Engaging novices in programming, experimenting and learning with data. ACM Inroads, 5(4): 72-
75, 2014.
[9] Resnick, Mitchel. Learn to code, code to learn. EdSurge, May, 2013.
[10] Presidencia de la República de Costa Rica: Dirección de Cambio Climático.“Meta de Carbono Neutralidad para el 2021 se
mantiene y fortalece”. DCC: [Link]
mantiene-y-fortalece/ [Septiembre 6, 2016].

123
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IX. BIOGRAFÍA

Diana Alvarado-Solano es Ingeniera Química graduada de la Universidad de Costa Rica (UCR) y


estudiante de Ingeniería en Producción Industrial del Instituto Tecnológico de Costa Rica (TEC Costa Rica).
Fue ejecutora principal del Proyecto Niñas en Tecnología, desarrollado dentro de una alianza entre el Centro
Infantil y Juvenil del Parque La Libertad (CIJ-PLL), adscrito al Ministerio de Cultura Juventud y Deportes
de Costa Rica, en conjunto con la Escuela de Computación del TEC Costa Rica a cargo del profesor Esteban
Arias-Méndez. Niñas en Tecnología consistió en invitar a niñas, de edades entre los cuatro y doce años, a
explorar la ciencia y la tecnología utilizando el pensamiento creativo y la metodología STEAM mediante
sesiones de trabajo vinculadas a conceptos de ciencias de la computación. Alvarado-Solano reconoce la
importancia de la programación como una nueva alfabetización, incentivando la exploración de espacios
de aprendizaje creativos y críticos. Espacios donde se aprende a aprender acerca de ciencia, tecnología,
ingeniería, arte y matemática; estimulando el pensamiento creativo e invitando a construir aplicaciones
tecnológicas propias migrando de consumidores a creadores.

Esteban Arias-Méndez es Ingeniero en Computación y profesor de la Escuela de Computación del


Instituto Tecnológico de Costa Rica (TEC Costa Rica). Ha dado cursos sobre Introducción a la
Programación, Fundamentos de Organización de Computadoras, Arquitectura de Computadoras, Sistemas
Operativos, Compiladores e Intérpretes, Estructuras de Datos, Análisis de Algoritmos, Computación y
Sociedad y Biología Molecular Computacional. Desde 2014 utiliza la plataforma Arduino en algunos de
sus cursos, desde el 2015 brinda cursos de Arduino abiertos a la comunidad. En 2016 colaboró enseñando
programación a niños en el Parque La Libertad, adscrito al Ministerio de Cultura Juventud y Deportes de
Costa Rica, y desde entonces en otros centros educativos brindando visitas y realizando talleres de
Introducción a la Programación usando Arduino de forma voluntaria con el apoyo de estudiantes del TEC
Costa Rica, usando programas de código abierto y de hardware abierto como Arduino. Recientemente
apoyó el Proyecto Niñas en Tecnología del Parque La Libertad con becas por parte de la Embajada de
Canadá y de la empresa EMERSON. Coordina el Proyecto: Programación La Nueva Alfabetización con la
colaboración de estudiantes voluntarios del TEC Costa Rica.

124
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Optimización de los recursos hídricos a través


del Internet de las Cosas en el proceso de
siembra del Ingenio de Caña de Azúcar ‘El
Viejo’
Luis Edo. Amaya Br. & José J. Rugama Ob.
Universidad de Costa Rica – Sede Guanacaste
[Link]@[Link], [Link]@[Link]

Resumen — Presentamos el abordaje de implementación de dispositivos de Internet de las Cosas (IoT) en el


proceso de la siembra de la caña de azúcar. El objetivo general es analizar la optimización de los recursos
hídricos a través de estas tecnologías (IoT) en el Ingenio de Caña de Azúcar ‘El Viejo’ de la provincia de
Guanacaste en Costa Rica. La optimización de los recursos hídricos es necesaria, sobre todo por las recurrentes
sequías en la zona, lo cual actualmente supone someter a un elevado estrés las principales fuentes de este recurso
ante las necesidades agrícolas. Por lo tanto, aunque han surgido numerosas implementaciones del Internet de
las Cosas alrededor del mundo, se pretende brindar posibles soluciones que complementen o mejore el uso de
estas tecnologías.

Palabras clave; IoT, agricultura, recursos hídricos.


Abstract — We present the implementation approach of Internet of Things devices (IoT) in the process of
planting sugarcane. The general objective is to analyze the optimization of water resources through these
technologies (IoT) at Sugar Cane Sugar Mill 'El Viejo' in the province of Guanacaste in Costa Rica. The
optimization of water resources is necessary, especially due to the recurrent droughts in the area, which
currently supposes to subject the main sources of this resource to high stress in the face of agricultural needs.
Therefore, although there have been numerous implementations of the Internet of Things around the world, it
is intended to provide possible solutions that complement or improve the use of these technologies.

Keywords; IoT; agriculture; hidraulic resources

I. INTRODUCCIÓN
Según la FAO (Organización de las Naciones Unidas para la Alimentación y la Agricultura), los desastres
meteorológicos como las tormentas o las temperaturas extremas causaron pérdidas por valor de 26,500
millones de dólares y los desastres biológicos, como las plagas e infestaciones, hicieron perder 9,500
millones de dólares en cosechas. [1] La provincia de Guanacaste se encuentra en la Zona Pacífico Norte del
país, se considera de algún modo como el granero del país porque es una de las principales productoras de
arroz, caña de azúcar, carne bovina y otros cultivos que han surgido. No obstante, según el Atlas
Climatológico de Costa Rica del Instituto Meteorológico Nacional (IMN), el Pacífico Norte presenta
promedios de lluvia anual entre 1500 y 2500 mm, lo que un principio parece normal, pero no lo es. Lo
anterior se debe a que existe una variabilidad en el clima que no permite tener el agua en el tiempo y espacio
deseado, lo cual es una buena justificación para hacer un óptimo uso del agua.

A. Influencia del Fenómeno el Niño- Oscilación del Sur (ENOS)

Además, la situación se ve agravada por el fenómeno El Niño, el cual su probabilidad de ocurrencia se


ha visto en aumento como consecuencia de la misma huella que ha venido dejando el Ser Humano en el
planeta. En esta zona en específico ya se han experimentado sequías acentuadas y críticas que han sometido
a los sistemas acuíferos a altos niveles de stress hídrico, lo que ha provocado en algunos casos la salinización

125
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

e incluso la disminución de las lluvias hasta en un 70% menor al promedio normal, sumado a ellos en algunos
sectores solo llovió un 20% del promedio anual. [2]

B. Sobre la Obra Pública


En el país en general hay poca obra pública para la gestión de los recursos hídricos, pero en Guanacaste
en especial falta mucho por desarrollar en infraestructura hidráulica integral, pues existe una mala gestión
del recurso hídrico y a su vez no se aprovecha de la mejor forma, ya sea a través de sistemas de recolección
de agua en invierno el cual podría ser usado para el riego en tiempos de sequía. A su vez existen
aproximadamente 5000 pozos perforados que atienden demandas individuales y más de 400 acueductos
comunales, lo cual demuestra que no hay una sinergia optima por parte del Estado para hacerle frente a las
situaciones concernientes al recurso hídrico. [2]
C. Proyectos Públicos para la Optimización de Recursos
A pesar de que existe el interés de las distintas partes que conforman la sociedad, por promover el cuidado
del agua, muchos proyectos no se pueden realizar sin la voluntad política, no obstante, paulatinamente el
Estado se ve interesado en promover nuevas políticas y proyectos. Uno de ellos es el Programa Integral de
Abastecimiento de Agua para Guanacaste – Pacífico Norte (PIAAG) y lo importante de mencionar este
programa, es que reúne más de 52 proyectos y acciones, con una visión integral pues contiene no solo
desarrollo de infraestructura hidráulica sino también monitoreo de aguas, investigación, capacitación,
educación, comunicación, gestión de la calidad de las aguas, mitigación de los acueductos comunales a los
efectos de cambio climático, la promoción de tecnologías novedosas de acceso al agua. Esto es importante
porque representa un esfuerzo de las entidades gubernamentales por satisfacer las necesidades hídricas para
todo el sector, ya que Guanacaste en gran medida depende de este recurso para que se pueda llevar a cabo
las actividades socioeconómicas como el turismo, agricultura y ganadería.
D. Paacume como un Proyecto del Piaag
El proyecto Pacume (Proyecto Sistema de Abastecimiento de Agua para la Cuenca Media del Río Tempisque
y Comunidades Costeras), según Marvin Coto, lo describe como una forma de incrementar la disponibilidad
de agua en la margen derecha de la cuenca media del río Tempisque, es utilizando las aguas del embalse
Arenal una vez turbinadas en el complejo hidroeléctrico Arenal-Dengo-Sandillal, ya que representa la
posibilidad de utilizar un volumen de agua de más de 600 millones de metros cúbicos que anualmente se van
al mar por falta de infraestructura de almacenamiento, conducción y distribución. La importancia de este
proyecto estatal en esta investigación es que está vinculado al Río Tempisque, el cual es usado como principal
fuente de riego para los Ingenios de Caña de Azúcar en Guanacaste.[3] Es mencionado, porque es importante
preguntarse ¿De qué forma los ingenios van a estar vinculados a este proyecto? ¿Y qué tecnologías van a
utilizar para el aprovechamiento de estos nuevos recursos de la forma más optima posible? ¿Son eficaces los
métodos actuales?

II. DESARROLLO

A. El Internet de las Cosas (IoT)

Es relevante tomar en cuenta lo que entendemos por IoT, ya que este tema se encuentra en pleno
desarrollo a nivel mundial, y tiene actualmente numerosas aplicaciones. Con esta tecnología se podrá tener,
un vínculo más cercano con todo lo que usamos y quizás darle una mayor utilidad a través de las conexiones
a internet, las cuales cada día permiten una mayor transferencia de datos y mayores velocidades. De hecho,
ya hay proyectos en marcha que prometen incluso disminuir la brecha entre ricos y pobres gracias al IoT,
esto a la vez permite “[…] mejorar la distribución de los recursos del mundo para quienes más lo necesitan
para que podamos ser más proactivos y menos reactivos” según Dave Evans.

A nivel conceptual, el IoT se puede definir de forma sencilla, según el Grupo de soluciones empresariales
basadas en Internet (IBSG, Internet Business Solutions Group) de Cisco como: «IoT es sencillamente el
punto en el tiempo en el que se conectaron a Internet más “cosas u objetos” que personas» [4], y a nivel
práctico el IoT puede generar conocimiento que puede ser utilizado para infinitas aplicaciones, porque estas
tecnologías generan datos que en conjunto pueden servir para la toma de decisiones, pues los patrones y
cosas que no son fácilmente perceptibles a nivel práctico por el Ser Humano, se pueden llegar a cuantificar
y a estudiar, incluso a tal punto en el que pueden surgir otras ramas del conocimiento del que se puede
obtener numerosos beneficios. Se habla del IoT como la evolución del Internet, pues desde el surgimiento
del Internet se enfrentaron numerosos retos, como la estandarización de protocolos, ya que numerosas

126
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

empresas usaban distintos protocolos de comunicación, hasta que entendieron la importancia de


comunicarse entre ellas fue que surgieron los estándares. De forma análoga, actualmente el IoT se enfrenta
a retos parecidos del pasado de Internet, pues todavía se presenta el reto en como distintas redes van a
interactuar entre sí para generar información útil y significativa, de hecho se visualiza al IoT como la red
de redes, un ejemplo de ello son los automóviles que tienen múltiples redes para el control del
funcionamiento del motor, medidas de seguridad o sistemas de comunicación, se pretende con la constante
evolución del IoT, que ese conjunto de redes del automóvil también interactué con otro conjunto de redes,
como el de un edificio o incluso una carretera que a su vez forman parte de una red universal y así aumentar
la utilidad y proactividad de la vida humana, esto vuelve al IoT una herramienta realmente poderosa.
Sabemos que mayoritariamente el IoT funciona con sensores que a su vez necesitan energía, eso quiere
decir que de algún modo también se tiene que solucionar este factor para así abastecer a millones de sensores
y la implementación del IoT no sea contraproducente para los principales problemas globales como el
medioambiente.

B. El IoT y sus usos en la agricultura

En esta sección se pretende abordar un poco a nivel general sobre los distintos usos que se le puede dar
al IoT en la agricultura, sin entrar en detalles todavía con respecto al proceso de siembra de la caña de
azúcar. El uso de tecnologías que forman parte del núcleo de IoT, hace surgir la Agricultura de Precisión
(AP), pues esta lo que busca es optimizar la calidad y cantidad de un producto agrícola, minimizando el
costo a través del uso de distintas tecnologías complementadas con el IoT. [5] Estas tecnologías que
complementan al IoT en la agricultura son:

 Tecnologías relacionadas al monitoreo del cultivo y del suelo (E1): Básicamente es todo lo
relacionado con Imágenes satelitales de Zonas geográficas, implica el uso de sensores que se
encarguen de capturar las variables concernientes al suelo como el nivel de la humedad, y con
relación al cultivo, estas son las principales tecnologías de interés de nuestro estudio, porque
comprenden la etapa de siembra del cultivo de la caña y la obtención de los datos.
 Tecnologías que ayudan al mapeo de cultivo (E2): Estas tecnologías abarcan el
procesamiento de datos y resultados, surgen los mapas de variabilidad de suelo, mapas de
rendimiento, mapas de vigor y entre otros. Vale recalcar que esta etapa es llevada a cabo por
asesores especializados en agricultura de precisión.
 Software para análisis de datos (E3): Estos softwares son especializados y ayudan a los
asesores especializados a interpretar los datos y a tomar decisiones.
 La toma de decisiones (E4): En esta etapa se aplican los insumos, es decir, con los datos
obtenidos se lleva a cabo la siembra, el riego, agroquímicos, control de malezas, control de
plagas, fertilizantes.

127
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

En la siguiente imagen se podrá visualizar de una mejor forma lo anteriormente mencionado:

Figura 1. Etapas de la Agricultura de Precisión. Fuente [5]

Como se puede ver, quizás lo más sencillo de todo sea extraer los datos a través de diversos sensores que
se encargan de capturar la humedad de los suelos, vitalidad de las plantas, precipitaciones o incluso datos
propios del cultivo, no obstante, el equipo necesario para la recolección de datos puede llegar a ser costoso,
o de difícil implementación, lo cual es una de las principales barreras que hay para los pequeños
productores. Sin embargo, si se logra implementar, se facilita el seguimiento y evolución de los cultivos, la
ubicación de las especies cultivadas en las parcelas de cultivo o el análisis de los costes implicados en el
proceso productivo. [6]

C. Los procesos de la caña de azucar

Tenemos claro que las tecnologías responden a necesidades de diferente índole, por esta razón es
necesario tener claridad sobre los procesos o aspectos clave a los que se somete la caña de azúcar desde la
siembra a la cosecha. El proceso completo como tal, según un reporte de la Secretaría de Agricultura,
Ganadería, Desarrollo Rural, Pesca y Alimentación (SAGARPA) de México, comprende cuatro etapas
como: germinación y/o emergencia, amacollamiento o ahijamiento, rápido crecimiento y maduración. [7],
las cuales tienen una duración aproximada de 14 a 17 meses en conjunto. A continuación, se mencionan
de forma breve:

 Germinación y emergencia: Esta etapa da inicio después de los 7 a 10 días después de la siembra,
para esta etapa es ideal que se den temperaturas óptimas que oscilen entre los 24 a 37°C para la
brotación, además una buena disponibilidad de humedad en el suelo. El éxito radica en la
magnitud, ritmo y uniformidad de la emergencia (desarrollo inicial de la plántula).[7]
 Amacollamiento o ahijamiento: Tiene comienzo alrededor de 35 a 40 días después de la
plantación, dentro de los factores que resultan favorables para el ahijamiento son: la variedad, días
de larga duración y alta intensidad luminosa, además una temperatura cercana a los 30°C es la
óptima y dos aspectos más que son claves: la humedad en el suelo y buen nivel de nitrógeno. [7]
 Rápido crecimiento: Comienza alrededor de los 120 días después de la plantación y es a los 180
días aproximadamente queda definido la población de tallos (sólo sobreviven entre el 40 y 50%
de los retoños). Requiere temperaturas sobre los 30°C, disponibilidad de nutrientes y buena
condición de humedad. En esta fase el cultivo expresa la máxima respuesta a los factores
ambientales y de manejo.[7]
 Maduración: Esta parte del desarrollo tiene una duración de 2 a 3 meses. Lo curioso de esta etapa
es que los factores que favorecen el almacenamiento de sacarosa son aquellos que inhiben el

128
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

crecimiento de la planta, por ejemplo: La presencia de noches frescas (temperaturas de 18°C), días
calurosos y secos, así mismo las aplicaciones elevadas de nitrógeno tiene un efecto negativo, ya
que retarda la maduración. [7]

Nótese que tanto en la primera hasta la tercera etapa es importante la condición de humedad, pues es un
factor esencial, así como otros factores como la temperatura y disponibilidad de nutrientes. La siembra en
este caso no solo comprende la preparación del suelo para sembrar la semilla, sino también lo entendemos
para efectos de esta investigación como el proceso completo desde su germinación hasta la maduración en
donde el IdC puede complementar de distintas formas tanto a la optimización de recursos como a una
eficiente producción.

D. La realidad del Ingenio Azucarero ‘El Viejo’

A veces se tiene la idea de que el IoT está muy avanzada en algunas áreas como la agricultura, lo cierto
es que, aunque a nivel teórico estas tecnologías prometen ser provechosas, a nivel práctico se encuentra
otra realidad que es difícil de superar. En el caso del Ingenio ‘El Viejo’, según los encargados de impulsar
estas tecnologías, los sensores necesarios en el mercado son muy costosos, pues en el mercado los precios
rondaban 1500 dólares (sensores de humedad), con su respectiva solución de software que interpreta datos,
no obstante, decidieron hacer un prototipo propio que fuese autónomo, es decir, que se cargara con el sol,
el cual ha resultado bastante provechoso para las necesidades básicas del Ingenio, es decir, los sensores
logran captar la humedad volumétrica del suelo y gracias a eso se puede determinar cuando son necesarios
los riegos, lo cual es un gran avance, pues antes los controles de la humedad volumétrica del suelo se hacían
de forma manual una vez a la semana, en cambio actualmente se logra controlar la humedad del suelo en
intervalos de 1 hora con datos confiables y con un ahorro de 1200 dólares por cada sensor, pues el prototipo
y diseño propio del sensor humedad tiene un costo de 300 dólares por unidad.

La importancia de capturar los datos con respecto a la humedad, según el Ingenio, radica en dos puntos
medulares: ahorro de agua y mejorar la producción. Por ejemplo, en el caso hipotético de que cada 22 días
se tenga que regar y no se sabe con una base científica si al cabo de esos 22 días la planta necesita o no
necesita el agua, porque perfectamente la planta al cabo de esos días podría estar bien o quizás en fase
terminal, entonces los datos de la humedad volumétrica del suelo pueden ayudar a responder a esas
incógnitas para así poder hacer un uso eficiente del recurso y por ende también aumentar de forma eficiente
la producción. Y aunque con los sensores de humedad se ha logrado un gran avance en este sentido, es
necesario recalcar que no deja de ser una lectura indirecta, porque se llega a saber el contenido del agua del
suelo, pero no se trata directamente con la planta, es decir, “es como si a una persona se le tocara con la
mano la frente para ver si tiene fiebre” nos comentaba el encargado de impulsar estas tecnologías Jorge
Cajina, pues se llega a tener una breve noción de acuerdo a la percepción, pero no es del todo exacta porque
no se llega a tener la temperatura exacta, algo así pasa con las plantas, a través de los sensores de humedad
se llega a determinar si hay agua o no dentro del suelo, pero realmente no se sabe con exactitud qué tanta

129
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

agua tiene la planta. Debido a esto, dentro de las proyecciones a futuro esta poner sensores en la hoja de la
planta que determinen si esta con poca agua y así complementar los datos de los sensores de humedad, para
tener mediciones más precisas con respecto a los niveles de agua en la planta con la ayuda de lecturas
directas.

El inconveniente actual con los sensores en las hojas es que son muy sensibles a factores externos, y
donde se han usado con más éxito ha sido en ambientes controlados como invernaderos, sin embargo, la
caña de azúcar en este sector se encuentra en campo abierto y expuesta a numerosos factores que pueden
influir en los resultados. Además, este Ingenio presenta otras dificultades como la extensión del terreno, ya
que cuenta con 15.000 hectáreas, y aplicar una red robusta de sensores no solo resulta costoso, sino también
complicado a la hora de conectarlos entre sí, ya que sería complicado desplegar una red Wi-Fi a lo largo de
15.000 hectáreas. También están las redes móviles para conectarlos, pero además de que tienen un límite
de consumo también resultaría costoso para una red amplia de sensores en 15.000 hectáreas, a parte que el
acceso no es óptimo en el área.

En la imagen anterior (figura 3) se puede apreciar las lecturas realizadas por los sensores del Ingenio ‘El
Viejo’, donde básicamente lo que hacen es mostrar los picos más altos en representación de mayor humedad,
mientras que los picos más bajos son donde existe una menor humedad, la visualización de los datos se da
gracias a herramientas de software como Power BI de Microsoft, la cual permite una visualización adecuada
de los datos con el objetivo de tomar decisiones.

E. Arquitectura del Sistema:

Protocolo MQTT: Uno de los principales problemas que enfrentaban las personas encargadas de estas
tecnologías en el Ingenio ‘El Viejo’ es que en un inicio se pretendía usar el protocolo HTTP, pero no fue
factible debido a que este protocolo consume más ancho de banda porque es más pesado ya que contiene
muchos más encabezados y reglas a diferencia de otros protocolos no tan convencionales, como lo es el
MQTT. Según Michael Yuan, la principal ventaja del protocolo MQTT es que es liviano y tiene un
encabezado simple para especificar el tipo de mensaje, un tema basado en texto y, posteriormente una carga
útil binaria arbitraria. Además, los formatos de datos para la carga útil, pueden ser tipo JSON, XML, binario
cifrado o Base64, mientras los clientes de destino puedan analizar la carga útil.[9] Entonces con el uso de
este protocolo no solo es más rápida la transmisión de los datos esenciales, sino también disminuye los
costos y hace rentable la operabilidad de los sensores, ya que estos se usan a través de redes móviles, por
la extensión de las fincas y el difícil acceso. No obstante, este protocolo es sumamente popular a la hora de
utilizar sensores, precisamente porque ocupa muy pocos recursos para su funcionamiento.

Red Node: Viene a ser la herramienta que utiliza el Ingenio para comunicar el hardware (los sensores) y
los servicios de una forma rápida y sencilla, ya que esta herramienta simplifica la tarea de programar del lado
del servidor gracias a la programación visual. Viene a ser excelente para implementar estas tecnologías

130
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

porque evita que las personas que buscan implementar estas tecnologías se atasquen en temas técnicos que
al fin y al cabo son irrelevantes para llevar a cabo una finalidad que beneficie a la empresa como tal. Red
Node es programado sobre NodeJs y permite recibir mensajes MQTT que a su vez son guardados en la Base
de Datos que es utilizada por la empresa.
Oracle y Power BI: La empresa utiliza Oracle para el almacenamiento de las siguientes variables: fecha,
voltaje, valor de la humedad volumétrica (el cual es interpretado por el sensor), para después ser visualizados
en la herramienta de Microsoft Power BI, el cual permite visualizar las diferentes variaciones de la humedad
cada hora.

En conjunto tanto el sensor como los diferentes componentes que forman parte de la arquitectura del
sistema anteriormente mencionado (Figura 4), permiten una comunicación y una visualización de los datos
que en un futuro puede ayudar a la toma de decisiones más complejas.

F. Componentes del Sensor

En cuanto a los componentes, el sensor de humedad es fabricado por la empresa Meter Group, el cual
viene a ser un sensor capacitivo tipoFDR (Frequency Domain Reflectrometry), modelo EC-5, los cuales
miden la constante dieléctrica o permitividad del suelo para calcular su contenido de humedad (humedad
volumétrica). En este caso se puede encontrar como la sonda EC-5. A su vez tenemos un Microcontrolador
tipo Arduino capaz de procesar los datos, con sus respectivas entradas para panel solar, batería y sensor de
humedad, además tiene una antena para enviar los datos gracias a una tarjeta SIM que puede ser incorporada
en la placa, el Reloj es importante porque determina con la hora cuando el microcontrolador debe de
encenderse para el envío de datos, lo cual también permite un ahorro de energía. Las baterías son de 6600
miliamperios, lo que garantiza una disponibilidad de incluso 8 días en caso de tormenta u otros motivos en
que no haya tanta disponibilidad del sol, incluso la caña de azúcar puede llegar a bloquear en determinado
momento el panel solar a pesar de la altura de las estructuras. Todo en su conjunto (Figura 5) permite
establecer una conexión a través del protocolo MQTT para su debido procesamiento a través de las capas
explicadas anteriormente.

131
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

La empresa se encuentra en constante desarrollo, se planea incrementar la cantidad de sensores


disponibles a lo largo de las fincas. Vale también aclarar que los costos disminuyeron a partir de que la
empresa logro conseguir como el sensor de humedad interpretaba los datos, ya que esto no lo ofrece la
empresa que vende el sensor como tal, es decir, la adquisición de un sistema adicional a nivel de software
que interpretara los datos del sensor tenía un costo adicional que llegaba a sumar los 1500 dólares. En cambio
el Ingenio logró comprar el sensor por aproximadamente 300 dólares y a través de soluciones de Software
como Red – Node gratuitas y otras de pago como Power BI obtener una solución que viene a solventar
algunas necesidades básicas del Ingenio de Caña de Azúcar ya anteriormente mencionadas.
G. Proyecciones a futuro

A pesar de las dificultades, el Ingenio apunta a proyectos ambiciosos con la tecnología, pues a pesar de
que los avances son lentos, se proyecta utilizar Robots de Software, implementar automatización de
procesos e incluso machine learning, pero antes de todo es importante tomar en cuenta los aprendizajes
realizados a “prueba y error” con los prototipos y diseños actuales. No puede existir machine learning
confiable si desde un inicio los datos que existen llegan a ser inconsistentes a lo largo del tiempo, por lo
tanto, es importante trabajar en las bases que van a complementar las tecnologías del futuro.
III. CONCLUSIONES

Los retos son amplios, existen numerosas formas de trabajar el IoT, no obstante, cuando se trata de
grandes proyectos a gran escala resulta ser un gran reto incluso para las empresas que tienen un buen capital,
pues se enfrentan a numerosas dificultades a parte de la económica. Actualmente quizás tenemos las
tecnologías necesarias para llevar a cabo grandes proyectos con el IoT, pero no hay una coordinación
gubernamental con las Universidades y mucho menos con las empresas proveedoras de servicios para que
tanto las empresas públicas o privadas puedan aprovechar el potencial que cada vez más ofrecen las redes y
telecomunicaciones en general. Lo cual incluso resulta un poco contraproducente para la sociedad e incluso
el gobierno, porque se invierte con mucho esfuerzo en infraestructura para garantizar la disponibilidad del
agua, pero no se le presta tanta atención al ahorro a través de tecnologías. Aunque la inversión puede ser
mucha, a largo plazo resulta beneficioso para todas las partes, las empresas ahorran y recuperan lo invertido
y el agua aumenta su disponibilidad para otras prioridades o áreas que no dependan del factor económico.
A pesar de que los sensores determinan el nivel volumétrico del agua, una de las deficiencias es que
todavía no se ha logrado integrar con otras técnicas o tecnologías de tal forma que eso genere un ahorro en
el agua, es decir, los sensores en sí mismos no están aportando al ahorro del agua, pues solo determinan
cuando es ideal llevar a cabo los riegos, pero eso no implica que en los riegos se reduzca la cantidad de agua
para las plantas de caña de azúcar. En parte esto se quiere lograr con lecturas más directas de la planta, pero

132
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

se han presentado retos que ya fueron mencionados anteriormente. Aunque los esfuerzos han demostrado
avances, no ha sido suficiente para cambiar las políticas de riego y producción a lo interno de la empresa.
También es necesario abordar quizás otras posibilidades de aplicación de IoT, pero las personas que han
logrado avances en el Ingenio afirman tener también una sobrecarga con relación a otras actividades
administrativas, entonces es esencial no solo proveer recursos para investigación, sino también personas con
capacidades técnicas en las áreas tecnológicas que se puedan dedicar a la investigación y aplicación de estas.
IV. AGRADECIMIENTOS

A Dios principalmente y a nuestras familias que de algún u otro modo nos apoyan a pesar de las
circunstancias, también al Ingenio ‘El Viejo’ como empresa y al encargado de impulsar estas tecnologías
Jorge Cajina quien amablemente respondió a nuestras preguntas con objetividad y sinceridad.

V. REFERENCIAS BIBLIOGRÁFICAS
[1] FAO (2017). Los desastres causan pérdidas agrícolas millonarias, con la sequía a la cabeza. [Edición electrónica]. Recuperado
de [Link]
[2] José Miguel Zeledón. “Agua Para Guanacaste: PIAAG.” Gestion Integrada Del Agua En Costa Rica ¿Se Está Avanzando?,
2016. [Link]
[3] Marvin Coto Hernández. “Paacume: Más Que Un Proyecto de Infraestructura, Un Proyecto de Desarrollo,” n.d.
[Link].
[4] Evans, Dave. “The Internet of Things - How the Next Evolution of the Internet Is Changing Everything.” CISCO White Paper,
no. April (2015): 1–11. [Link]
[5] Best, Stanley, Inés Zamora, and Isabel Quiroz. “Tecnologías Aplicables En Agricultura de Precisión.” Santiago, Chile, 2008.
[6] PROSIC. “E-Agricultura En Costa Rica,” 2007. [Link]
[7] SAGARPA. “FICHA TÉCNICA DEL CULTIVO DE LA CAÑA(Saccharum Officinarum L.),” 2015.
[Link]
[8] Orozco, Óscar Arley, and Gonzalo Llano Ramírez. “Sistemas de Información Enfocados En Tecnologías de Agricultura de
Precisión y Aplicables a La Caña de Azúcar, Una Revisión.” Revista Ingenierías Universidad de Medellín. Medellin, Colombia,
2016. [Link]
[9] Michael Yuan. “Conociendo MQTT ¿Por Qué MQTT Es Uno de Los Mejores Protocolos de Red Para Internet de Las Cosas?,”
2017. [Link]

133
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Uso de dispositivos móviles inteligentes


discontinuados para enlazar un sistema de video
vigilancia de bajo costo
Christian Alberto López Quiroa
Universidad de San Carlos de Guatemala
Quetzaltenango, Guatemala
[Link]@[Link]

Resumen – La alta demanda de dispositivos móviles modernos y la constante


implementación de nuevos modelos genera resultados de desechos tecnológicos cada vez mayor,
así también la necesidad de las poblaciones de tener sistemas de seguridad que salvaguarden de
posibles actos delictivos en su contra, hacen que surja la implementación de sistemas que
aseguren a los usuarios sobre sus bienes, siendo así, que se permita la implementación de
sistemas de video vigilancia a bajo costo utilizando herramientas gratuitas y su aplicación entre
dispositivos que ya no tengan uso cotidiano y que faciliten la adquisición y expansión de estos
sistemas para la seguridad.

Palabras clave; dispositivos, móviles, discontinuados, video, vigilancia, domótica


I. INTRODUCCIÓN
La implementación de sistemas de video vigilancia en hogares o pequeñas empresas para el
promedio de las familias guatemaltecas es un tema que pocas veces se realiza, pues los costos son
elevados, tanto en el equipo como en el mantenimiento. Asimismo dado que Guatemala es un país
con altos índices de delincuencia, robos y otros delitos similares que atentan contra la población,
surge la necesidad de buscar alternativas que sean de útiles y que permitan el apoyo para mantener
la seguridad de hogares y negocios en la región suroccidental del país.

Considerando que es habitual encontrar que la disponibilidad de conexión a internet tanto en


los hogares de la población como en las empresas ya es activo en la mayoría, tanto por servicios de
banda ancha, o de servicios residenciales que cubren la necesidad de la población, es importante
poder aprovechar y maximizar el uso de éstos servicios y ofrecer a la población alternativas de bajo
costo, que cooperen con la reducción de desechos tecnológicos y que ofrezcan a la población
servicios para salvaguardar la seguridad de sus bienes muebles e inmuebles.

Quedando así la fácil implementación de herramientas que apoyen a la temática de


seguridad en la región utilizando dispositivos que aún pueden ser de utilidad y que por sus
capacidades más limitadas en comparación con las que están actualmente en el mercado quedan
fuera de servicio o simplemente sean desechadas, apoyando así a la reutilización de dispositivos que
aún pueden brindar soporte a sistemas como en éste caso de video vigilancia.
II. JUSTIFICACIÓN
La evolución digital y los avances en tecnología móvil hacen que existan modelos nuevos,
más veloces y con mejores capacidades en almacenamiento, conectividad, y grabación tanto en
imagen como en video, esto hace que el interés de la población en adquirir cada vez más rápido
modelos de dispositivos más recientes también acrecienten la cantidad de producción pero el
desecho de los antiguos.

134
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Si bien, la mayoría de personas que adquiere un nuevo dispositivo móvil buscan aprovechar
el antiguo ya sea por venta o por donación a terceros, en algún momento existen dispositivos que
quedan descontinuados por sus capacidades, sus limitaciones de velocidad, procesamiento,
almacenamiento u otros.

Considerando que en países de alto riesgo por los índices de seguridad es común ver
empresas que se dedican a la venta de equipo y servicios de seguridad privada y qué esta implica
altos costos de implementación y mantenimiento, surge la necesidad de buscar alternativas de bajo
costo que solventen éstos inconvenientes y beneficien a población que no cuenta con la
disponibilidad financiera de contratar servicios de alto costo.

III. O BJETIVOS
Objetivo General:
Identificar los elementos necesarios para implementar un sistema de video vigilancia de bajo
costo utilizando como base los dispositivos móviles descontinuados del mercado que estén en buen
funcionamiento.

Objetivos Específicos:
Analizar la factibilidad de utilizar dispositivos móviles descontinuados para reutilizarlos en
sistemas de bajo costo para la video vigilancia de hogares y negocios pequeños.
Identificar los tipos de dispositivos, indumentaria, software y requerimientos que se
necesitan para establecer la conexión de video vigilancia en un circuito
Estimar los costos requeridos para ofrecer un sistema seguro de video vigilancia que recicle
los dispositivos móviles y evite la contaminación tecnológica desmedida en la región.
IV. ANTECEDENTES
Histórica, la inseguridad en ciudades, municipios y, en general en toda la república, ha sido
estadísticamente un asunto cotidiano ligado al subdesarrollo.

Inseguridad a nivel internacional


Guatemala es un país con un alto índice de inseguridad, tanto en áreas urbanas como en
áreas rurales, aunque los índices de inseguridad se acrecientan según la cantidad poblacional o su
sobrepoblación en cada lugar. A nivel internacional, se ocupa el puesto número 111 de 163 países,
en cuanto a seguridad y paz [1].

Además por parte del sitio web ABC en el 2017 se realizó una publicación sobre los países
más peligrosos del mundo, dejando a Guatemala con un referente bastante alto de violencia y
peligro inclusive indicando textualmente “se recomienda extremar la precaución durante el viaje,
incluso en las zonas de menor riesgo” [2].

El dato de inseguridad también puede ser expresado por ubicaciones más precisas, ya que no
todo el país muestra el índice de violencia de la misma magnitud, no obstante, La cadena BBC
también indicó en su portal [3] sobre las ciudades más peligrosas del mundo, recalcando que de 50,
42 de ellas se encuentran en América y en donde aparece en el listado, como la número 24 a la
Ciudad de Guatemala (Capital) siendo también la única del país en ser mencionada.

135
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Inseguridad a nivel nacional


Al conciliar los distintos datos que conforman la inseguridad se dividen en dos grandes
áreas: Subíndice de delitos contra las personas y Subíndice de delitos contra la propiedad, en ésta
última se consideran los de Extorsiones, Robo de vehículos, Robo de motocicletas, Robo de
furgones con mercadería y Robo de viviendas.

La inseguridad ha generado en Guatemala la necesidad de buscar alternativas que


contrarresten el índice criminológico, llevando a la población a buscar medidas de seguridad
privada que mantenga la tranquilidad en todas las áreas, desde la adquisición de seguros para
vehículos, viviendas y otros medios para la protección de los bienes adquiridos.

Se encuentra en enero de 2019 un deceso en el Subíndice de Delitos contra la Propiedad de


-2.9% en referente al mes anterior, el que también se había visto en la misma proporción al mes de
mayo de 2018, sin embargo es un proceso fluctuante que no marca una tendencia directa al mismo
[4].

Para la Cantidad y Tasa de robo a viviendas, la tasa interanual de 2018 menciona que se
registraron 43 denuncias a la PNC en enero de 2018, dejando que la tasa compete a 2.9 por cada
cien mil habitantes [5] haciendo énfasis en que no se mantuvo la baja como en los meses anteriores,
dejando explicito el inconveniente de la seguridad en propiedades inmuebles expuestas es existente.

V. D ISPOSITIVOS MÓVILES INTELIGENTES


Dispositivos móviles inteligentes
Se denomina como dispositivos móviles inteligentes en la actualidad a todos los dispositivos
que cuentan con un sistema operativo incrustado que permiten la interacción con sus poseedores,
usando como plataformas de comunicación, redes móviles y señal de internet. Éstos pueden ser bien
teléfonos inteligentes con sistemas comunes en el mercado como Android, Surface o iOS, también
existen disponibles las tabletas donde su principal característica es poseer pantallas más amplias en
comparación con los teléfonos.

Actualmente los dispositivos móviles inteligentes son vendidos en cantidades abismales a


nivel mundial, existiendo distintas gamas como baja, media y alta, según sus capacidades de
procesamiento, almacenamiento y otras características. Los costos por dispositivo móvil varían
tanto sus capacidades como la marca fabricante que las produce.

La base de adquisición de un dispositivo móvil inteligente inicia con la necesidad de


interconectividad con la sociedad, la necesidad de comunicación y en muchos casos modernos la
justificación de interactuar digitalmente con sistemas de redes sociales.
Dispositivos discontinuados
Existen diversos motivos principales por el que los dispositivos queden descontinuados y
varían según su uso, inicialmente pueden ser por daño físico irreparable, la calidad de los materiales
de fabricación hacen que el costo de reparación sea casi tan elevado como la adquisición de un
modelo más reciente bajo la misma gama.

También se debe considerar que éstos dispositivos en muchos casos principalmente en


países de primer mundo o con una economía más estable sean reemplazados simplemente por la
adquisición de nuevos o mejores modelos, dejando a un lado éstos dispositivos que acaban en
procesos de reventa interna, herencia a familiares y amigos o bien a procesos de desecho y en
algunos casos, éstos son enviados a países con menores capacidades financieras para su venta a

136
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

costos que están al alcance de la población y qué aunque no sean nuevos, sean utilizados por largos
períodos por los nuevos usuarios que los adquieren.

Sin embargo, aún ante los procesos de reutilización de dispositivos móviles, hay un gran
porcentaje de ellos que terminan siendo desechados a la basura o simplemente almacenados para no
volver a ser utilizados.

VI. VIDEO VIGILANCIA


Se denomina como video vigilancia a la implementación de un conjunto de cámaras
conectadas a un grabador digital. Existen varias tecnologías utilizadas para realizar éstos procesos
de vigilancia, entre ellos: Circuitos Cerrados de TeleVisión, Analógicos, IP, HDCVL, entre otros.

Su función principal se basa en transferir desde las distintas cámaras utilizadas imagen y/o
sonido y hacerlas llegar hasta el grabador digital, para su reproducción en alguna pantalla o bien
para ser almacenado y poder visualizarse posteriormente.

Al hablar de las cámaras propiamente hay tres tipos principales que son utilizados en el
mercado, siendo: Bala, Minidomo, Domo [6].

VII. METODOLOGÍA
Para implementar por medio de dispositivos móviles un sistema de vigilancia, es necesario
estandarizar ciertos requisitos mínimos que deben cumplir los elementos involucrados, dejando un
listado siguiente como base:

 Dispositivos móviles
o Dispositivos con sistema operativo Android 4.0 o superior o IOS 7 o superior
o Cámara frontal o trasera en buen funcionamiento
o Conector WIFI
 Conectividad
o Señal de internet residencial de 2MBPS o superior
 Vigilancia
o Computador con acceso a navegador web y programa de conexión remota

Inicialmente se generó una propuesta de crear un aplicativo que permitiera efectivamente la


manipulación de la cámara de los dispositivos y la interacción entre éstos y un computador, sin
embargo, después de realizar una búsqueda, se obtuvo como evidencia que ya existen distintas
aplicaciones tanto de código abierto, gratuitas o de pago que realizan de formas similares lo que se
intenta desarrollar.

A partir de ese entendimiento, se replantea la idea de desarrollar un aplicativo y se opta por


adaptar herramientas existentes que permitan brindar el servicio esperado sin la necesidad de
recrear lo existente, así también facilitando la integración y adaptabilidad evitando saturar el
mercado con nuevos software que queden en desuso luego de no ser actualizados o mantener un
seguimiento bajo nuevas tecnologías.

VIII. RESULTADOS
Se implementó la prueba utilizando un dispositivo móvil en desuso con sistema operativo
Android 4.4 de gama media baja utilizando el software IPWebCam para enlazar de manera interna
en la red inalámbrica residencial, a la cuál es accesible desde cualquier dispositivo que posea un
navegador web que muestra en tiempo real la imagen de lo que sucede en el área.

137
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Imagen 1: Captura de pantalla directa del dispositivo instalado para video vigilancia, que incorpora publicidad
no intrusiva para el funcionamiento de la aplicación.

Imagen 2: Captura de pantalla del computador visualizando la imagen

Posteriormente se realizaron las pruebas con software de conexión remota, la cuál puede ser
monitoreada desde computador o dispositivo inteligente y que permite la manipulación del
computador para el monitoreo del estatus de información.

Imagen 3: Captura del dispositivo externo que visualiza vía internet el video de vigilancia del lugar.

Por último se presenta una fotografía que muestra el dispositivo de captura como un
computador de ejemplo que muestra que la captura es transmitida en tiempo real, así mismo el
funcionamiento efectivo del sistema y de su implementación.

138
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Imagen 4: Uso de computador para monitorear la imagen capturada por el dispositivo.

IX. C ONCLUSIONES
Implementar un sistema pequeño de video vigilancia por medio de dispositivos móviles
descontinuados para minimizar costos es un tema factible, requiere conocimientos básicos de
implementación de redes, adaptación e instalación de software en dispositivos móviles y de acceso
remoto en computadores.

Para que el sistema sea funcional se consideraron dispositivos de gama media baja que
estaban en desuso o que por sus capacidades ya no eran funcionales para los requerimientos
habituales de los usuarios. En cuanto al software se utilizó en los dispositivos una aplicación
gratuita llamada IPWebCam desarrollada por Pavel Khlebovich que incorpora publicidad no
intrusiva que no limita su funcionamiento en los dispositivos donde se instale, ésta aplicación
permite el grabar videos dentro del computador que remotamente se conecte. Y sobre el
computador que se necesita para funcionar, los requerimientos son básicos, un navegador web para
acceder a los distintos dispositivos que se convierten en las cámaras de vigilancia.

Los costos que implican la implementación de éste sistema son bastante accesibles en
comparación con los precios de un sistema diseñado específicamente para éste propósito en el
mercado habitual, a continuación se presenta una tabla de los costos aproximados de
implementación:

Cuadro 1: Costos de implementación


Cant. Elementos Costo Q. Costo $
2 Dispositivos en desuso Q100.00 cada uno Q200.00 $26.50
1 RaspberryPi (micro computador) Q400.00 $53.00
Total Q600.00 $79.50
Fuente: Elaboración propia. 6.06.19

El mantenimiento del sistema implica que el usuario tenga a su disponibilidad una señal de
internet residencial mínima aproximada de 2MBPS para poder monitorear externamente el sistema
desde cualquier otro lugar. Como mediador de control remoto para los dispositivos y computador se
ha utilizado el software denominado TeamViewer desarrollado por la empresa del mismo nombre y
cuya última actualización gratuita fue puesta el día 9 de abril de 2019.

Cuadro 2: Costo mensual por servicio


Cant. Servicio Costo Q. Costo $
1 Servicio de Señal de Internet Residencial de 2MBPS Q180.00 $24.00
1 Consumo de energía eléctrica por el equipo implementado Q 80.00 $10.00
Total Q260.00 $34.50
Fuente: Elaboración propia. 6.06.19

139
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

X. RECOMENDACIONES
Para optimizar la implementación de los dispositivos, se ha realizado una búsqueda de las
aplicaciones más recomendables hasta el momento que permitirían convertir cada teléfono
discontinuado en un buen receptor, tomando principalmente como sistema operativo base Android
por su actual posicionamiento comercial en los mercados latinoamericanos y la diversidad de
dispositivos de gamas alta, media y baja.

Considerando que existe valoración por parte de los usuarios, cantidada de descargas y
recomendaciones en sitios web se presenta el siguiente cuadro.
Cuadro 3: Aplicaciones para convertir dispositivo en una cámara de video vigilancia.
Aplicación Sistemas Soportados Costo de aplicación
IP WebCam Android, IOS Gratuita
Alfred Home Security Camera Android, IOS Gratuita o $3.99/mes
SmartCam Android, IOS Gratuita
AtHome camera Android, IOS Gratuita
AndIPCam Android, IOS $3.50 pago único
WO Webcam Android, IOS $3.99 pago único
DroidCamX Wireless Webcam Pro Android $4.00 pago único
Salient Eye Android, IOS Gratuita o $4.99 pago único
WardenCam Android, IOS Gratuita o $5.99 pago único
EpocCam Pro Android, IOS $7.00 pago único
Fuente: Elaboración propia. 7.07.19

Del listado anterior se considera que aunque la mayoría de las aplicaciones son gratuitas en
su totalidad o incorporan versión gratuita, aquellas que tienen costo adicional usualmente es para
mejoras en algunos elementos, tales son los casos de Salient Eye o de WardenCam que las
versiones de pago permiten configurar entre otras cosas, detección de movimiento, captura de
pantallas (fotografías) o incluso subir videos a sitios de terceros como Drive de Google™ o
Dropbox™ entre otros servicios[7]

Sin embargo también en el blog de Maria, J.[8] del listado que presenta, menciona que si la
intención es tener centralizados diferentes dispositivos para uso doméstico las aplicaciones en su
versión gratuita son suficientes para la implementación de un sistema casero de seguridad.

XI. REFERENCIAS BIBLIOGRÁFICAS


[1] Institute for Economics & Peace. (1 de Abril de 2019). Reports. Recuperado el 1 de Abril de
2019, de Institute for Economics & Peace:
[Link]
[2] Cano, L. (03 de Enero de 2018). El mapa de los países más peligrosos del mundo 2017.
Recuperado el 2 de Abril de 2019, de ABC Internacional:
[Link]
201712280158_noticia.html
[3] BBC Mundo. (7 de Marzo de 2018). Estas son las 50 ciudades más violentas del mundo (y 42
están en América Latina). Recuperado el 3 de Abril de 2019, de BBC News Mundo:
[Link]
[4] Coalición por la seguridad ciudadana. (28 de Febrero de 2019). Índice de Denuncias de Delitos
(IDD) y tema del mes “Drogas, un desafío para la Seguridad”. Recuperado el 3 de Abril de
2019, de Centro de Investigaciones Económicas Nacionales:
[Link]
desafio-para-la-seguridad/
[5] Centro de observancia de seguridad ciudadana. (15 de Enero de 2019). Boletín estadístico de
delitos (diciembre 2018). Recuperado el 3 de Abril de 2019, de Centro de Investigaciones

140
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Económicas Nacionales: [Link]


estadi%CC%[Link]
[6] Ares Seguridad. (30 de Marzo de 2018). ¿Como funciona un Sistema de Videovigilancia?
Recuperado el 18 de Abril de 2019, de Ares Seguridad: [Link]
funciona-un-sistema-de-videovigilancia/
[7] Hindy, J. (23 de Febrero de 2019). 5 best home security apps for Android! Recuperado el 8 de
Julio de 2019, de Android Authority: [Link]
apps-android-842997/
[8] Maria, J. (08 de Julio de 2019). 6 Best Android Webcam Apps. Recuperado el 08 de Julio de
2019, de TechShout: [Link]
apps/

XII. B IOGRAFÍA
Christian Alberto López Quiroa nació en la Ciudad de Quetzaltenango,
Guatemala el 20 de noviembre de 1985. Ejerce como docente para la División
de Ciencias de la Ingeniería del Centro Universitario de Occidente –CUNOC–
de la Universidad de San Carlos de Guatemala –USAC– desde el 2015, ha
trabajado como desarrollador de software y programador de aplicaciones en la
misma división desde 2006 y también en el Departamento de Estudios de
Postgrados desde el 2013 de la misma sede y casa de estudios. Estudiante del
quinto trimestre de la Maestría en Informática en la Universidad Mariano
Gálvez de Guatemala. Emprendedor en el uso de tecnologías libres, de
software GNU/Linux y aplicaciones web.

141
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Aplicación de Partial Least Square (PLS)


a opiniones de diputados del Salvador
Luis Eduardo Amaya Briceño
Universidad de Costa Rica
Sede Guanacaste
Liberia, Costa Rica
[Link]@[Link]

Resumen — La regresión PLS trata de explicar un conjunto de variables cuantitativas a partir de un conjunto
de variables cuantitativas. En contraposición con la regresión lineal múltiple clásica, en la regresión PLS se
toman en cuenta las correlaciones entre las variables a explicar. Cuando se tienen dos tablas de datos con
variables cuantitativas, X y Y, observadas sobre las mismas n unidades estadísticas, y que se quiere usar las
variables de X para explicar a toda la tabla Y simultáneamente.
Es decir, en lugar de hacer un análisis para cada variable de Y por separado, se quiere hacer un análisis global,
en el sentido explicativo, de todas las variables de Y. En este trabajo presentamos los resultados de dicha
regresión aplicada a las opiniones recolectadas a diputados del Salvador con respecto a temas sociales,
económicos y políticos.

Palabras clave: partial least square (pls), análisis de datos.


Abstract — The PLS regression tries to explain a set of quantitative variables from a set of quantitative
variables. In contrast to classical multiple linear regression, in the PLS regression the correlations between the
variables to be explained are taken into account. When you have two data tables with quantitative variables, X
and Y, observed on the same n statistical units, and you want to use the variables of X to explain the entire table
Y simultaneously. That is, instead of doing an analysis for each variable of Y separately, we want to make a
global analysis, in the explanatory sense, of all Y variables. In this paper we present the results of this regression
applied to the opinions collected to deputies of El Salvador regarding social, economic and political issues .

Keywords: partial least square (pls), data analysis.


I. INTRODUCCIÓN
El objetivo del presente documento es realizar una Regresión por Mínimos Cuadrados Parciales (PLS),
de las opiniones de 64 legisladores del congreso del Salvador. La información es tomada de un cuestionario
aplicado por el Instituto Interuniversitario de Estudios de Iberoamérica y Portugal de la universidad de
Salamanca (España) a los legisladores del Salvador en agosto del año 2002.
Las técnicas de regresión más usuales (regresión lineal múltiple) presentan una serie de inconvenientes
tales como: multicolinealidad o dependencia y auto correlación de variables predictivas. Como respuesta a
los problemas derivados de la regresión lineal múltiple; se plantea el uso de metodologías basadas en la
eliminación de variables (métodos de selección de variables), o basadas en la reducción de la
dimensionalidad de las variables a través de factores o componentes principales. Mediante la técnica
conocida como PLS (partial least square), se busca un conjunto de variables latentes que ajusten una
descomposición simultanea de las matrices X e Y bajo la condición de que expliquen tanto como sea posible
la covarianza entre X e Y; y que la descomposición de la varianza sea lo más eficaz para ajustar al set de
datos Y.
Menciona Abdi, que la regresión PLS combina elementos de los componentes principales y de las
regresiones lineales múltiples, es particularmente usada cuando necesitamos predecir un conjunto de
variables dependientes a partir de un conjunto muy grande de variables independientes (variables
predictoras). Esta técnica es originada en las ciencias sociales, especificamente por los trabajos de Herman
Wold en economía.
Básicamente, el modelo PLS se establece como una representación de la matriz X en términos de los
factores o variables latentes T mediante la siguiente expresión:
𝑡
𝑋 = 𝑇𝑃 𝑡 + 𝑒

142
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

siendo 𝑷𝑻 la matriz traspuesta de los pesos de las variables latentes, y la relación entre las variables Y
y las variables latentes T son dadas por
𝑌̂ = 𝑇𝐵𝐶 𝑡 + 𝑓
Se asume que la descomposición de X es exacta, por cuanto e = 0. Existen diferentes procedimientos,
basados en procesos iterativos, para determinar la relación entre los factores T y las variables de respuesta
Y. Con ellos es posible obtener los coeficientes a través del siguiente modelo de regresión lineal múltiple:
Y = X × βPLS + e

siendo 𝜷𝑷𝑳𝑺 = (𝑷𝒕 )−𝟏 × 𝑩 × 𝑪𝑻 , 𝑪𝑻 la matriz de pesos para Y y B la matriz diagonal de pesos de las
regresiones.
El ajuste de los modelos se determinará mediante el R2, error cuadrático medio y la cantidad de varianza
total explicada para el conjunto de datos X y el conjunto de datos Y.
El análisis de la regresión se realizo por medio de una rutina programada en Matlab, aunque también se
puede utilizar: “The pls Package” del software R.
II. DESARROLLO
A. Codificación de Datos

Para realizar la regresión PLS, es necesario construir dos tablas de datos.


Una tabla de datos de 𝑌64𝑥14 , que muestra el grado de importancia (mucha, bastante, poca o ninguna) que
dan los diputados de los partidos políticos PDC, FLP, y otros del Salvador a los problemas económicos
(Inflación, Deuda Externa y Estancamiento económico), sociales (Desempleo, Sanidad, Inseguridad,
Educación, Derechos Humanos, Medio Ambiente y Narcotráfico) y políticos (Relaciones Fuerzas Armadas,
Conflictos entre poderes, Corrupción y Violencia política) del país.

En los casos de datos faltantes, los del tipo numérico fueron completados con la mediana, y los del tipo
cualitativo por la moda. Los cuales son los siguientes: para los individuos número 5, 16, 28,58,59,60, 61 se
calcula la mediana para dar respuesta a la pregunta sobre trayectoria política. Al individuo 40 se calcula la
moda en la pregunta sobre el grado de escolaridad del diputado, a los 2,7,15,27 se calcula la moda para dar
respuesta a la pregunta del grado de escolaridad del padre.
La recodificación de los grados de importancia y variables a predecir es la siguiente:

Tabla 1. Importancia de las opiniones

Grado de Importancia Código


Mucha 1
Bastante 2
Poca 3
Ninguna 4
NS NS
NC NC

Por otro lado, tenemos una tabla de datos de 𝑋64𝑥8 , que definen un conjunto de variables predictoras que
caracterizan a los diputados del plenario tales como, la experiencia parlamentaria previa, años de trayectoria
política, experiencia previa en otros cargos políticos, nivel de escolaridad del padre y madre, origen
socioeconómico, influencia de la opinión pública sobre la toma de decisiones e influencia de los medios de
comunicación para la toma de decisiones. Al igual que en la tabla anterior, existieron datos faltantes que se
completaron con el mismo criterio de la tabla anterior.

Tabla 2. Codificación de Variables.

Categoría Variable Codificación


Económica Inflación INFL
Económica Deuda Externa DEXT

143
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Económica Estancamiento Económico ESTC


Social Desempleo DSMP
Social Sanidad SANI
Social Inseguridad INSE
Social Educación EDUC
Social Derechos Humanos DDHH
Social Medio Ambiente MAMB
Social Narcotráfico NRCT
Política Relaciones Fuerzas Armadas FFAA
Política Conflicto entre Poderes PODE
Política Corrupción CRRP
Política Violencia Política VIOL

La recodificación de los grados de importancia y variables a predictoras es la siguiente:

Tabla 3. Codificación de Variables Predictoras.

Variable Codificación
Experiencia parlamentaria previa EXPA
Años trayectoria política TRPO
Experiencia previa otros cargos EXOT
Nivel de escolaridad diputado ESCO
Nivel de escolaridad padre EDPA
Nivel de escolaridad madre EDMA
Influencia opinión pública OPIN
Influencia medios comunicación COMU

Como se dispone de una serie de variables cualitativas ordinales, se recodifican estas con el propósito de
evaluar y predecir los diferentes problemas identificados en el parlamento con variables asociadas al origen
socioeconómico de los diputados, influencia del medio y opinión, la experiencia previa en política y el nivel
de escolaridad del padre y madre; utilizando la técnica de regresión de mínimos cuadrados parciales (PLS).

El análisis será enfocado en identificar los factores influyentes para la toma de decisiones para con problemas
económicos, sociales y políticos.

B. Análisis de la Regresión
1) Matriz de Factores Explicativos

Al realizar la regresión PLS podemos ver el valor de varianza para X y Y por cada uno de los factores
explicativos

Tabla 4: Porcentajes de Varianza Explicada por cada factor.


Factor % Varianza % Varianza % Varianza % Varianza
Explicativo Explicada por X acumulada para Explicada por Y acumulada para
X Y
1 96,1209 96,1209 51,1961 51,1961
2 3,44 99,5640 40,997 92,1928
3 0,17 99,7335 2,082 94,2747
4 0,07 99,8076 0,166 94,4405
5 0,07 99,8804 0,097 94,5379
6 0,06 99,9373 0,049 94,5865
7 0,04 99,9799 0,040 94,6269
8 0,02 100,0000 0,069 94,6958

144
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Puede notarse que con 3 factores explicativos se explica un alto porcentaje tanto de la variable X como la Y,
esto a pesar que en la variable Y, la primera variable latente solo explica un 51%, de esta manera el análisis
se concentrará en los resultados aportados por los tres primeros factores explicativos.

2) Matriz de Coeficientes de B

Primero analizaremos la matriz de correlaciones entre X y Y, denotada como matriz.


Resaltaremos en negrita aquellas variables que posean mayor correlación (positiva o negativa).

Tabla 5: Matriz de coeficientes de B con 3 factores explicativos.

INFL DEXT ESTC DSMP SANI INSE


EDUC DDHH MAMB NRCT CRRP PODE VIOL FFAA
EXPA -0,0358 -0,0646 -0,2775 -0,1607 -0,2463 -0,1571 -0,1884 -0,0987 -0,0840 - -0,1388 -0,2305 -0,0663 -0,1111
0,0638
-
TRPO 0,0308 0,0255 0,0794 0,0406 0,0732 0,0121 0,0280 0,0406 0,0273 0,0265 0,0386 -0,0107 0,0123
0,0036
EXOT -0,0106 0,0157 -0,0774 -0,0036 -0,0540 0,0087 0,0240 -0,0472 -0,0686 0,0774 0,1142 0,0459 0,1422 0,0025
ESCO -0,0211 0,0059 0,0945 0,0577 0,0774
0,0995 0,0955 0,0297 0,0162
0,0438 0,0473 0,1074 0,0483 0,0649
EDPA -0,1404 -0,1537 -0,3112 -0,2108 -0,3100 -0,0877 -0,1902 -0,1442 -0,0473 - -0,3030 -0,2771 -0,1518 -0,0751
0,0965
EDMA -0,0873 -0,0589 -0,0417 -0,0283 -0,0572 0,0749 0,0274 -0,0521 0,0028 0,0181 -0,0638 0,0057 0,0080 0,0404
OPIN 0,1062 0,1259 0,2496 0,1766 0,2499 0,0879 0,1713 0,1090 0,0306 0,0976 0,2687 0,2462 0,1536 0,0710
COMU 0,0889 0,1205 0,1160 0,1304 0,1425 0,0515 0,1382 0,0468 -0,0440 0,1386 0,3176 0,2184 0,2430 0,0425

Tabla 6: Matriz de coeficientes de B con 8 factores explicativos.


INFL DEXT ESTC DSMP SANI INSE EDUC DDHH MAMB NRCT CRRP PODE VIOL FFAA
EXPA -0,0415 -0,1778 -0,1923 -0,1651 -0,2643 -0,2131 -0,2502 -0,0903 -0,0685 - -0,0030 -0,3124 -0,0928 -0,2205
0,0353
-
TRPO -0,1394 0,0760 0,1081 -0,0199 0,1170 0,0363 0,0859 0,1564 0,0498 -0,0189 0,0330 -0,0082 -0,0991
0,0589
EXOT 0,0264 0,1541 -0,1125 0,0997 -0,0557 -0,0083 0,1267 0,0182 -0,0611 0,0593 0,0300 0,0152 0,2378 0,0088
ESCO 0,0663 -0,0671 0,2071 0,2119 0,0033 -0,0427 0,06840,0363 0,0273 0,0624 0,2105 -0,0642 0,0771 -0,0939
EDPA -0,2138 -0,0983 -0,3140 -0,1290 -0,3830 -0,1025 -0,1780 -0,2204 -0,1732 - -0,4084 -0,1973 -0,2585 -0,0840
0,2623
EDMA -0,1741 -0,1152 -0,0785 -0,2527 0,0458 0,1885 -0,0075 -0,0230 0,0806 0,0976 -0,0648 0,0807 -0,0045 0,1037
OPIN 0,0248 0,1719 0,2538 0,2482 0,1814 0,0729 0,1799 0,0405 -0,0885 - 0,1743 0,3196 0,0468 0,0508
0,0628
COMU 0,1162 0,0314 0,1253 0,0473 0,1730 0,0697 0,0810 0,0361 0,0035 0,2219 0,3981 0,2073 0,2424 0,0622

Se puede apreciar que existen variables que sin importar la cantidad de factores explicativos son explicadas
por las mismas variables, como, por ejemplo: Violencia política, Inflación y Desempleo, pero a como lo
mencionamos anteriormente nos concentraremos en los datos encontrados con 3 factores explicativos, los
cuales están en el cuadro 5.

3) Factores Determinantes en la toma de decisiones


Para identificar los factores influyentes para la toma de decisiones para los problemas económicos, sociales
y políticos; se analizan los coeficientes de regresión PLS de la tabla 5. Las variables determinantes en la
toma de decisiones para temas:

a. Económicos
 En primera instancia se puede observar que la experiencia parlamentaria previa
(EXPA) se correlaciona negativamente en todas las variables económicas.
 Se observa que tanto para la inflación (INFL), deuda externa (DEXT) y
estancamiento económico (ESTC), existe una correlación negativa alta con la
educación del padre.
 La opinión pública (OPIN) influye positivamente, en un 24% sobre el estancamiento
económico (ESTC).

145
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

 En el estancamiento económico (ESTC) se observa también que la experiencia


parlamentaria previa (EXPA) influye negativamente sobre este factor, con un 27%.
 COMU y OPIN influyen positivamente en las variables económicas.
b. Sociales
 Se observa que la experiencia parlamentaria previa se correlaciona negativamente
en todos los aspectos sociales, influyendo, de forma negativa y en mayor medida
sobre aspectos como: sanidad (SANI), desempleo (DSMP), inseguridad (INSE),
educación (EDUC) e importancia del medio ambiente (MAMB).
 El desempleo (DSMP), presenta una correlación negativa alta, con EXPA y EDPA,
pero una correlación positiva con OPIN y COMU.
 De la misma forma que en el punto anterior, la opinión pública influye positivamente
en aspectos de la sanidad (SANI).
 En aspectos de inseguridad, vemos que el grado de escolaridad del diputado influye
en 9% de forma positiva, pero EXPA negativamente con un 15%.
 La educación (EDUC) se ve mayormente influenciada positivamente por la opinión
pública (OPIN) y los medios de comunicación (COMU), pero negativamente por
EXPA y EDPA.
 En los derechos humanos (DDHH) la opinión pública influye positivamente para
ambos.
 Narcotráfico recibe influencias positivas de OPIN y COMU, y negativas de EDPA.
 MAMB, no tiene influencias importantes a considerar.
c. Políticas
 Se observa el gran porcentaje de influencia positiva que reciben aspectos tales como
la corrupción (CRRP), conflicto entre poderes (PODE), y violencia entre podres
(VIOL), por medio de la opinión pública (OPIN) y los medios de comunicación
(COMU). Para estos mismos factores, el grado de educación del padre (EDPA), y la
experiencia parlamentaria previa (EXPA), al contrario de las primeras mencionadas
son las que más se correlaciona negativamente.
 En aspectos militares (FFAA) se observa la influencia negativa de solamente la
experiencia parlamentaria previa. Además, se observa que la opinión pública es la
que más influye positivamente con un 7%.
 Es interesante observar como ciertas variables tienen más influencias sobre otras, en
los aspectos políticos, económicos y sociales, por ejemplo:
 La experiencia parlamentaria previa se correlaciona negativamente con todas las
variables.
 Los medios de comunicación y la opinión pública tienen siempre (excepto en
MAMB), una influencia positiva.
 El grado de educación del padre se correlaciona negativamente en todos los
aspectos, teniendo además un peso bastante considerable.
 EXPA, EDPA, COMU y OPIN influyen en la mayoría de variables sin importar la
naturaleza de las mismas.
 Para El Salvador, podemos decir que los factores más influyentes radican en EDPA,
OPIN, COMU y PODE.

4) Planos Principales y Círculos de Correlaciones

Considerando la información analizada en el cuadro 5, analizaremos la representación en el plano de los


3 primeros factores latentes. En ellos se proyectan los diputados de cada partido y las variables latentes,
esto con el objetivo de poder establecer patrones de comportamiento.

146
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Comencemos analizando el plano 1-2

Figura 1: Plano principal latente 1-2

En el plano podemos concentrar nuestro análisis en dos aspectos: la representación de los


individuos y la representación de las variables latentes. Con respecto a los primeros podemos ver
que existe una distribución homogénea en el plano, a excepción de diputados pertenecientes al
partido ARENA, uno del PCN y uno del FMLN. Al analizar el primer componente principal, se
puede apreciar como OPIN y COMU se contraponen al resto de variables, con respecto al segundo
componente, vemos que variables de educación como EDMA y ESCO, y aunado a ellos OPIN, se
contraponen al resto de variables.

Casos interesantes por mencionar:

 En general, lo distante que se encuentran las variables unas de otras.


 Se puede apreciar como algunos partidarios del partido FMLN, ARENA y PCN, no
parecen tener el mismo punto de vista que los demás diputados, pero tampoco se ubican
cercanamente a alguna de las variables latentes.
 COMU se muestra cercana a la concentración de diputados.

Analizando el plano 1-3


Figura 2: Plano principal latente 1-3.

147
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

En este plano a comparación al 1-2, podemos ver que existe una clara separación se ciertos diputados
simpatizantes del partido ARENA, no obstante, no se puede definir con detenimiento qué variables
influyen sobre todas ellas para poder explicar su separación, sin embargo, se puede apreciar como TRPO
influye directamente sobre un miembro del partido ARENA.
Con respecto a la primera componente principal, se puede apreciar, al igual que en el plano 1-2, como
OPIN, TRPO y COMU se contraponen al resto de variables, con respecto al tercer componente principal,
se observa como TRPO se opone al resto de variables.

Casos interesantes por mencionar:


 Al igual que en el plano anterior 1-2, se observa una dispersión de las variables latentes.
 Lo distante que se encuentra EDMA y EDPA.
Finalmente analizamos el plano 2-3
Figura 3: Plano principal latente 2-3.

Nuevamente, al igual que en ambos planos anteriormente estudiados, vemos que existe una dispersión
de algunos diputados del partido ARENA, no obstante, ahora se observa que OTROS partidos políticos
también se alijan con respecto al resto. En este plano se puede observar como TRPO influye en gran
manera sobre una parte del grupo de diputados.

Con respecto a la segunda componente principal, se observa como ESCO y EDMA se contraponen al
resto de variables.
Casos interesantes por mencionar:
 Lo cerca que se encuentran COMU y EXOT.
 Lo distante que se encuentran, en general, todas las variables latentes.
 No se nota cercanía de alguna variable con algún grupo particular de diputados.

5) Círculos de Correlaciones

Esto es una representación de las variables, en donde buscamos, a partir de la naturaleza de


ellas (económicas, sociales o políticas) si existen correlaciones en los diferentes ejes latentes.

Analizaremos los círculos de correlaciones de las variables por explicar con los tres primeros
componentes.
Primero analizamos el círculo de correlaciones 1-2.

Figura 4: Círculo de correlaciones latente 1-2.

148
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

En primera instancia se puede observar una concentración de variables, las cuales concuerdan con las
distribuciones de los diputados, con respecto a la primera componente principal, se puede observar un
efecto tallo, donde ESTC y CRRP son las más distantes del grupo. Con respecto a la segunda
componente también existe la tendencia a un efecto tallo. En general no se nota una tendencia de las
variables según su naturaleza.

Figura 5: Plano 1-2 vrs Círculo de correlaciones 1-2.

Si analizamos en conjunto el plano 1-2 con respecto al círculo 1-2, no se puede observar, con ninguna
de los dos componentes alguna influencia directa de las variables predictoras, salvo por OPIN.

Analizamos el círculo de correlaciones 1-3

Figura 6: Círculo de correlaciones latente 1-3.

149
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Al igual que en el círculo 1-2, se puede apreciar un efecto tallo en la distribución de las variables. Con
respecto a la primera componente no se encuentra ninguna contraposición de variables, con respecto a
la tercera, se puede observar como MAMB y DDHH se oponen al resto, pero también existe una
tendencia a un efecto tallo.

Figura 7: Plano 1-3 vrs Círculo de correlaciones 1-3.

Si analizamos en conjunto el plano 1-3 y el circulo 1-3, se puede apreciar, de manera no tan clara,
como TRPO tiene influencia sobre la variable MAMB, solamente esta apreciación se puede observar.

Finalmente analizamos el círculo de correlaciones 2-3

Figura 8: Círculo de correlaciones latente 2-3

150
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Se aprecia que sigue existiendo un efecto tallo con respecto al segundo componente principal, con
respecto al tercer componente al igual que en los otros círculos analizados anteriormente parece darse
una tendencia a un efecto tallo.
Ninguno de los círculos ha brindado una clara tendencia de la representación de las variables.

6) Residuos

Al calcular la norma de los residuos de las variables, la cual consiste en una medida de bondad de
ajuste del modelo de regresión PLS del grupo de variables explicativas sobre cada una de las variables
dependientes, entre más pequeña la norma es mejor el ajuste que se tiene.

Tabla 7: Residuos de las Variables.

INF DEX EST DSM SAN INS EDU DDH MAM NRC CRR POD VIO FFA
L T C P I E C H B T P E L A
0,059 0,015 0,157 0,063 0,129 0,007 0,046 0,037 0,000 0,128 0,348 0,027 0,082 0,001
1 6 8 0 3 6 2 9 5 5 2 9 2 7

Se puede apreciar que salvo por la variable de estancamiento económico, narcotráfico, corrupción y
sanidad, todas poseen un buen ajuste de regresión.

III. CONCLUSIONES
El presente trabajo brinda resultados interesantes con respecto al análisis de regresión PLS realizado:

1. No existe una clara tendencia de los diputados sin importar el partido al que pertenecen, lo cual
no marca una tendencia de opiniones de los diputados sobre temas particulares según su partido
de pertenencia, es decir da igual a qué partido se pertenece para dar un grado de importancia a los
temas preguntados.
2. No existe una clara tendencia de las variables según su naturaleza política, económica o social.

IV. REFERENCIAS BIBLIOGRÁFICAS

[1] Abdi, H. (2003) “Partial least squares (PLS) regression”, in: M. Lewis-Beck, A. Bryman & T. Futing (Eds) Ecyclopedia of
Social Sciences Research Methods. Sage, Thousand Oaks CA.
[2] Antoniadis, A.; Berruyer, J.; Carmona, R. (1992) Régression Non Linéaire et Applications. Economica, Paris.
[3] B. Mevik, R. Wehrens, “The pls Package: Principal Component and Partial Least Squares Regression in R” Journal of Statistical
Software, January 2007, Volume 18, Issue 2.
[4] [Link], Y. Mori, “Springer Handbooks of Computational Statistics”, Springer, 2010.
[5] Wold, H. Estimation of principal components and related models by iterative least squares. In: Krishnaiah PR, ed. Multivariate
Analysis. New York: Academic
Press; 1966, 391–420.

151
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Detención de frade en tarjetas de crédito


utilizando aprendizaje automatizado
Efrén Antonio Jiménez Delgado
Universidad Técnica Nacional, Costa Rica
ejimenez@[Link]

Nelson Andrés Mora Jiménez


Universidad Técnica Nacional, Costa Rica
nmoraj@[Link]

Yony Alberto Méndez Suárez


Universidad Técnica Nacional, Costa Rica
yamendezs@[Link]

Resumen — Con el crecimiento de una economía sin efectivo basada cada vez más en transacciones electrónicas,
ha motivado a que el uso de tarjetas de crédito como método de transacción continué en constante aumento, al
igual que el acrecentamiento en el número de transacciones fraudulentas con tarjetas de crédito. Para evitar
esto e infundir confianza en las personas, se ha realizado una investigación con datos provenientes de transacción
de tarjeta de crédito ya etiquetadas, como fraudulentas y no fraudulentas. El proceso se vuelve desafiante debido
a dos razones principales: la primera, es el comportamiento de las transacciones fraudulentas, que cambia con
mucha frecuencia y, en segundo lugar, como usar métodos de aprendizaje automático para aprender a clasificar
estos patrones de comportamiento en fraudulentos y no fraudulentos.

Keywords; Credit Card, Logistic Regression, Decision Tree, Random Forest, Artificial Neural Networks, Fraud
Detection, Machine Learning

I. INTRODUCCIÓN
Los fraudes con tarjetas de crédito son frecuentes en la sociedad moderna. Detectar transacciones es una
tarea desalentadora cuando se utilizan los procedimientos normales, por esta razón el desarrollo de proyectos
de detección de fraudes con tarjetas de crédito se ha vuelto trascendental, en los campos académicos y
empresariales. Las técnicas de aprendizaje automático son métodos notables y populares que se utilizan para
encontrar patrones entre conjuntos de datos. La detección de fraudes en las tarjetas de crédito implica la
identificación de aquellas transacciones que son fraudulentas en dos clases de transacciones legítimas y de
clase fraudulenta; se diseñan e implementan varias técnicas para resolver la detección de fraudes en tarjetas
de crédito, como regresión logística, árbol de decisión, redes neuronales y bosques aleatorios [1,2,3]. Estos
analizan los patrones de gasto en cada tarjeta para descubrir cualquier inconsistencia con respecto a los
patrones de gasto "habituales". Dado que los humanos tienden a mostrar perfiles conductistas específicos,
cada titular de tarjeta puede ser representado por un conjunto de patrones que contienen información como
la categoría de compra típica, el tiempo desde la última compra, la cantidad de dinero gastado, etc., la
desviación de dichos patrones se reconoce como una posible transacción de fraude por parte del sistema.
Este documento evalúa algunas de estas estrategias de detección de fraudes e identifica cuáles son las
dificultades para identificar los fraudes. [4,5]
A. Dificultades en la detección de fraude de tarjetas de crédito
Los sistemas de detección de fraude son propensos a varias dificultades y desafíos enumerados a
continuación. Una técnica de detección de fraude efectiva debe tener la capacidad de abordar estas
dificultades para lograr el mejor desempeño [6,7,8].
 Clasificaciones erróneas: La clasificación errónea de una transacción normal como fraude no es tan
perjudicial como detectar una transacción fraudulenta de la manera habitual. Porque en el primer
caso, el error en la clasificación puede ser identificado en futuras investigaciones.
 Costo de detección de fraude: el sistema debe tener en cuenta tanto el valor de la transacción
fraudulenta que se detecta como el costo de su prevención. Por ejemplo, no se obtienen ingresos al
detener una transacción fraudulenta de unos pocos dólares.

152
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

 Datos superpuestos: muchas transacciones pueden considerarse fraudulentas, aunque son normales
(falsos positivos) y, a la inversa, una transacción fraudulenta puede parecer legítima (falsos
negativos). Por lo tanto, obtener una baja tasa de falsos positivos y falsos negativos es un desafío
clave de los sistemas de detección de fraudes.
 Datos desequilibrados: los datos de detección de fraude de tarjetas de crédito tienen una naturaleza
desequilibrada, lo que significa que porcentajes muy pequeños de todas las transacciones de tarjetas
de crédito son fraudulentos. Esto hace que la detección de transacciones fraudulentas sea muy difícil
e imprecisa.
 Falta de adaptabilidad: los algoritmos de clasificación generalmente se enfrentan al problema de
la adaptabilidad. Los sistemas de detección de fraude supervisados y no supervisados son
ineficientes para detectar nuevos patrones de comportamiento normal y de fraude.
II. METODOLOGIA
Este documento representa una investigación sobre los datos de transacciones de tarjetas de crédito
europeos, para esto se empleó un conjunto de algoritmos de aprendizaje automático. La indagación se basó
en el aprendizaje supervisado y la importancia de este artículo es presentar distintos métodos para la
detección de fraudes y aumentar la exactitud de los resultados. La detección de fraude es una tarea de
clasificación binaria en la que cualquier transacción se predecirá y etiquetará como un fraude o legítimo. En
las siguientes secciones se explica brevemente las técnicas de clasificación utilizadas, el conjunto de datos,
las métricas utilizadas para medir el rendimiento y los experimentos realizados.
III. ALGORITMOS DE APRENDIZAJE AUTMATIZADO UTILIZADOS
A. Árbol de decisión
Hay dos categorías en árboles de decisión, árboles de regresión y árboles de clasificación. Se construye
utilizando un conjunto de datos de entrenamiento. Un árbol de decisión consta de nodos que forman una
estructura de árbol; El nodo superior se llama el nodo raíz. Cada nodo no hoja denota un peso sobre un
atributo, cada rama representa el resultado de una prueba y cada nodo hoja tiene una etiqueta de clase. Los
nodos de hoja representan las clases que se devuelven si el modelo las alcanza como la predicación final.
Hay varios algoritmos de árbol de decisión que incluyen C4.5, CART e ID3 [8,12].
B. Bosques aleatorios
Es un algoritmo que se utiliza para clasificación y regresión. Es una colección de clasificadores del árbol
de decisión. El bosque aleatorio tiene más ventaja sobre árbol de decisión, ya que corrige el hábito de exceso
de ajuste a su conjunto de entrenamiento, como se hace en el árbol de decisión. Dado que cada árbol se
entrena de forma independiente, las instancias de datos y el entrenamiento es extremadamente rápido en
bosques aleatorios incluso para grandes conjuntos de datos con muchas características. El algoritmo de
bosque aleatorio se ha encontrado que es resistente al sobreajuste y proporciona una buena estimación del
error de generalización [8,12].
C. Redes neuronales artificiales
Es un modelo matemático para predecir el rendimiento del sistema (es decir, la salida del sistema)
inspirado por la estructura y función de las redes neuronales biológicas humanas. La ANN se desarrolla y se
deriva para tener una función similar al cerebro humano mediante la memorización y el aprendizaje de
diversas tareas y el comportamiento correspondiente. Está capacitado para predecir comportamientos
específicos y recordarlos en el futuro como lo hace el cerebro humano. Su arquitectura también es similar a
las capas de neuronas humanas en el cerebro en cuanto a funcionalidad y conexión entre neuronas [9,10,11].
D. Regresion logistica
La regresión logística tampoco requiere que las variables independientes estén relacionadas linealmente,
ni tampoco requiere una varianza igual dentro de cada grupo, lo que también lo hace un procedimiento menos
estricto para el análisis estadístico. El análisis de regresión logística utiliza la estimación de máxima
probabilidad para predecir la pertenencia al grupo [8,12].
IV. DESCRIPCION DE DATOS

El conjunto de datos contiene transacciones realizadas con tarjetas de crédito en septiembre del 2013 por
los titulares de tarjetas europeos. Este conjunto de datos presenta las transacciones que se produjeron en dos
días, donde tenemos 492 fraudes de 284,807 transacciones como se muestra en la figura 1. El conjunto de
datos está muy desequilibrado, la clase positiva (fraudes) representa el 0.172% de todas las transacciones.
En la figura 2 se observa que la clase “0” contiene 284315 observaciones de transacciones no fraudulentas y
492 fraudulentas. En la figura 3 se muestra la distribución de las variables V1 hasta la V28, esta última
presenta casos muy altos para el resto de variables. Debido a que son variables sensibles se encuentran

153
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

numeradas del 1 al 28, además de las variables tiempo y clase. Enlace de descarga del set de datos:
[Link]

Figura 1. Descripcion de los valores presentes en el dataset

Figura 2. Distribución de transsaciones fraudulentas y no fraudulentas Figura 3. Distribución de las variables V1 hasta la V28

V. MÉTODO DE MEDICION DE RENDIMIENTO


Se podrían utilizar varias métricas de rendimiento para informar el desempeño de los clasificadores de
detección de fraude, incluida la matriz de confusión, la sensibilidad, la especificidad y la precisión.
Matriz de confusión
Una matriz de confusión de un clasificador binario es una tabla que muestra el número de instancias
clasificadas correctamente / incorrectamente en cada clase. La Tabla 1 ilustra la matriz de confusión de un
clasificador binario.

TABLA I MATRIZ DE CONFUSIÓN DE UN CLASIFICADOR BINARIO


Datos reales Clasificador
Positivo Negativo

154
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Datos reales Clasificador


Verdadero Falso positivo
Transacción correcta (Positivo)
positivo (TP) (FP)
Falso Verdadero
Transacción Fraude (Negativo)
negativo (FN) negativo (TN)

La especificidad: se define como el número de predicciones de casos de fraude al número total de casos de
fraude. En la detección de fraudes, la medida más importante es la especificidad o la tasa de detección de
fraudes, ya que un mayor valor de retiro significa una pérdida financiera más baja para la empresa.
Especificidad =TN/ (TN + FP)
La sensibilidad: se define como el número de predicciones legítimas en comparación con el número total
de transacciones legítimas.
Sensibilidad =TP/ (TP + FN)
La precisión: da la eficacia general del sistema propuesto. Se define como el número total de predicciones
al número total de casos. La precisión del modelo puede ser engañosa en el caso de detección de fraude de
tarjeta de crédito, donde el número de transacciones fraudulentas es mucho menor que las transacciones
legítimas y el conjunto de datos está muy desequilibrado. La selección de las métricas de desempeño
correctas depende del objetivo comercial porque una medida puede ayudar a prevenir pérdidas financieras y
la otra puede ayudar a obtener la satisfacción del cliente.
Precisión= (TP + TN) / (TP + TN + FP + FN)
VI. EXPERIMINEO Y RESULTADOS
Los cuatro modelos de aprendizaje automatizado de detección de fraude fueron entrenados en una
distribución de 70% para entrenamiento y 30% para pruebas e implementados en el lenguaje R. En los cuatros
modelos se utilizaron el mismo set de datos. Se utiliza la medida de especificidad de la matriz de confusión
porque es la medición que representa cuantas transacciones fraudulentas fueron realmente clasificadas como
fraudulentas.
En la tabla 2 utilizando la medida de especificidad, se muestra que el modelo de bosques aleatorios es el
mejor modelo para clasificar transacciones fraudulentas, llegando cerca del 94 %, luego el árbol de decisión
al 90%, regresión logística al 80% y la red neuronal al 52%. La sensibilidad al igual que la precisión es muy
similar entre los 4 modelos.

TABLA III RENDIMIENTO DEL ÁRBOL DE DECISIÓN


Porcentaje de entrenamiento/ pruebas Rendimiento
Especificidad % Sensibilidad % Precisión %
Árbol de decisión 90.22 99.96 99.94
Regresión logística 80.35 99.93 99.99
Red neuronal artificial 52.97 99.95 99.84
Bosques aleatorios 94.44 99.97 99.95

VII. CONCLUSIONES
Al concluir este proyecto de investigación se puede determinar que los bosques aleatorios son el modelo
mas adecuado para clasificar en el set de datos creado, en los cuales casi se puede clasificar correctamente
un 94.44 % transacciones realmente [Link] importante tomar en cuenta que el set de datos esta muy
desequilibrado debido a que solo un 0.172% de las transacciones están etiquetadas como transacciones
fraudulentas, lo cual hace que sea realmente difícil para un algoritmo de aprendizaje automatizado encontrar
el patrón de una transacción fraudulenta. En tres de los modelos utilizados en este documento demostaron
que aun con un set de datos desbalanceado, encontrar un padrón en las transacciones etiquetadas como
fraudulentas fue viable, el único modelo que no tiene validez fue la red neuronal artificial debido a que solo
tienen un 52.97 % de especificidad, lo cual es muy bajo.
VIII. TRABAJOS FUTUROS
En futuros trabajos se debe implementar algunos otros nuevos métodos de clasificación, así como la
búsqueda y trabajo de un set de datos mas balanceados, que le permita a lo modelos de aprendizaje
automatizado, encontrar patrones más fácilmente.

155
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IX. REFERENCIAS BIBLIOGRÁFICAS


[1] Carcillo, Fabrizio; Dal Pozzolo, Andrea; Le Borgne, Yann-Aël; Caelen, Olivier; Mazzer, Yannis; Bontempi, Gianluca. Scarff: a
scalable framework for streaming credit card fraud detection with Spark, Information fusion,41, 182-194,2018,Elsevier
[2] Bertrand Lebichot, Yann-Aël Le Borgne, Liyun He, Frederic Oblé, Gianluca Bontempi Deep-Learning Domain Adaptation
Techniques for Credit Cards Fraud Detection, INNSBDDL 2019: Recent Advances in Big Data and Deep Learning, pp 78-88,
2019
[3] Fabrizio Carcillo, Yann-Aël Le Borgne, Olivier Caelen, Frederic Oblé, Gianluca Bontempi Combining Unsupervised and
Supervised Learning in Credit Card Fraud Detection Information Sciences, 2019
[4] S. Benson Edwin Raj and A. Annie Portia, "Analysis on credit card fraud detection methods," 2011 International Conference on
Computer, Communication and Electrical Technology (ICCCET), Tamilnadu, 2011, pp. 152-156.
[5] Z. Kazemi and H. Zarrabi, "Using deep networks for fraud detection in the credit card transactions," 2017 IEEE 4th International
Conference on Knowledge-Based Engineering and Innovation (KBEI), Tehran, 2017, pp. 0630-0633.
[6] A. Dal Pozzolo, G. Boracchi, O. Caelen, C. Alippi and G. Bontempi, "Credit Card Fraud Detection: A Realistic Modeling and a
Novel Learning Strategy," in IEEE Transactions on Neural Networks and Learning Systems, vol. 29, no. 8, pp. 3784-3797, Aug.
2018.
[7] H. Wang, P. Zhu, X. Zou and S. Qin, "An Ensemble Learning Framework for Credit Card Fraud Detection Based on Training
Set Partitioning and Clustering," 2018 IEEE SmartWorld, Ubiquitous Intelligence & Computing, Advanced & Trusted
Computing, Scalable Computing & Communications, Cloud & Big Data Computing, Internet of People and Smart City
Innovation (SmartWorld/SCALCOM/UIC/ATC/CBDCom/IOP/SCI), Guangzhou, 2018, pp. 94-98.
[8] S. Dhankhad, E. Mohammed and B. Far, "Supervised Machine Learning Algorithms for Credit Card Fraudulent Transaction
Detection: A Comparative Study," 2018 IEEE International Conference on Information Reuse and Integration (IRI), Salt Lake
City, UT, 2018, pp. 122-125.
[9] K. T. Hafiz, S. Aghili and P. Zavarsky, "The use of predictive analytics technology to detect credit card fraud in Canada," 2016
11th Iberian Conference on Information Systems and Technologies (CISTI), Las Palmas, 2016, pp. 1-6.
[10] N. Malini and M. Pushpa, "Analysis on credit card fraud identification techniques based on KNN and outlier detection," 2017
Third International Conference on Advances in Electrical, Electronics, Information, Communication and Bio-Informatics
(AEEICB), Chennai, 2017, pp. 255-258.
[11] R. R. Popat and J. Chaudhary, "A Survey on Credit Card Fraud Detection Using Machine Learning," 2018 2nd International
Conference on Trends in Electronics and Informatics (ICOEI), Tirunelveli, 2018, pp. 1120-1125.
[12] J. O. Awoyemi, A. O. Adetunmbi and S. A. Oluwadare, "Credit card fraud detection using machine learning techniques: A
comparative analysis," 2017 International Conference on Computing Networking and Informatics (ICCNI), Lagos, 2017, pp. 1-
9.

156
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Uso de fotogrametría mediante drone, para


reconstrucción de árboles

Use of photogrammetry by drone, for tree


reconstruction

Leiver Adrián Jiménez Ureña


Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
[Link]@[Link]

Andrés García Salas


Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
jgarsalas@[Link]

Rogelio Gonzáles Quirós


Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
rojo@[Link]

Resumen — Durante los últimos años el avance tecnológico ha sido indudablemente bastante grande, sin
embargo, hasta la fecha recrear o reconstruir un árbol sigue siendo un problema con múltiples áreas a
desarrollar. Existen múltiples tecnologías para el escaneo de un individuo en específico y sin embargo siguen
persistiendo muchos problemas ante los detalles.

El trabajo a continuación se enfoca en reconstrucción de dos árboles de distintos tamaños donde se


implementaron algunas técnicas denominadas ‘SFM’ y tecnologías libres como ‘Colmap’.

Palabras clave; Structure From Motion; SFM; Colmap; Reconstruccion; Arboles; 3D; nube de puntos.
Abstract — During the last years, the technological advance has undoubtedly been quite large, however, to date
recreate or rebuild a tree is still a problem with multiple areas to develop. Exist multiple technologies for the
scanning of a particular individual and many problems persist in the details.

The work then focuses on the reconstruction of trees where some techniques called 'SFM' and free technologies
such as 'Colmap' are implemented.

Keywords; Structure From Motion; SFM; Colmap; Trees; 3D; Point Cloud.

157
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. INTRODUCCIÓN
La reconstrucción de la geometría de un árbol sigue siendo un problema abierto que genera diferentes
áreas a desarrollar. Diferentes técnicas se han desarrollado para contribuir con este problema, algunas de
ellas se basan en el uso de imágenes, videos o nubes de puntos recolectadas mediante instrumentación
avanzada.
Nuestro enfoque va dirigido al uso de imágenes en un ambiente en dos dimensiones (2D) como fuente
para la reconstrucción de árboles en tres dimensiones (3D). Específicamente vamos a utilizar la técnica de
“Structure From Motion” (SFM), la misma conocida desde muchos años atrás como técnica que permite
reconstruir objetos de 2D a 3D.
El proceso de reconstrucción de estructura conocido como (SFM) se basa en la reconstrucción de un
objeto, basados en las proyecciones obtenidas de muchas imágenes tomadas en diferentes perspectivas. La
técnica puede utilizar tantas imágenes como sea posible generar, no se requieren en orden ni del mismo
punto. El proceso es mejor entre más fotografías se tengan de diferentes perspectivas, pero deben ver varias
por cada perspectiva. La línea de trabajo de esta técnica se puede resumir en la figura 1. La que muestra el
proceso que se debe seguir para tener una reconstrucción de una estructura. El proceso es lento y requiere
alto procesamiento el cual se puede realizar en un CPU o en GPU.

Figura 1. Línea de trabajo de SFM [1]

Nuestro trabajo pretende utilizar el código abierto denominado COLMAP para la reconstrucción de
árboles partiendo de imágenes [1]. Se está utilizando este dada la efectividad comprobada que tienen sobre
estructura como edificios. Al ser código fuente abierto permite crear modificaciones de mejora al mismo y
no incurrir en licencias.
Otros autores como Tan con 20 imágenes demostró que es posible utilizando SFM reconstruir un árbol,
descubriendo primero las ramas visibles mediante una nube de puntos la cual se crea mediante la detección
de puntos cercanos para conformar cada rama. La propuesta de Tan permitió reconstruir árboles hasta con
más de 4000 hojas [2].
Liénard en su trabajo presenta como se puede capturar las imágenes alrededor del árbol para tener
fotografías en 360 grados, con ellos se mejora la reconstrucción del árbol utilizando imágenes desde un drone
en tiempo real. El trabajo presenta una solución particular para la reconstrucción en tiempo real, permitiendo
tener un objeto en tiempo real muy cercano al real [3].
En el trabajo de Li utilizan un video para la generación de las ramas del árbol, elemento que usualmente
es más difícil de captar por temas como la oclusión. Este factor evita que al utilizar técnicas de captura con
nubes de puntos se logren resultados satisfactorios. La propuesta de Li una vez obtenidas las imágenes en 2d
de los esqueletos de los árboles, genera modelos en 3D partiendo de modelos probabilísticos y de estimación.
Las aproximaciones se mejoran utilizando ejemplos de los datos obtenidos en las imágenes en 2D,
permitiendo aproximar y hacer calzar mejor los elementos como hojas o ramas. Entre los resultados
obtenidos indican que se mejora la reconstrucción si el usuario realiza marcas sobre las imágenes que resaltan
las ramas principales desde el tronco [4].
Tan en un su trabajo presenta también tomando como base una sola imagen y con intervención de usuario
como reconstruir un árbol. Ellos separan el tronco del área de hojas para lo cual se valen de la intervención
de usuario mediante una delimitación en la imagen en la herramienta creada. Una vez separadas ambas áreas
se realiza una extracción del foliage utilizando métodos gaussianos y combinaciones de pixeles en RGB, que
permiten distinguir diferentes áreas y así agruparlas. La reconstrucción de los troncos se facilita mediante el

158
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

seguimiento de las líneas dibujadas en un color dado de las ramas visibles. El algoritmo contiene una librería
de partes que permite que se pueda reconstruir con facilidad y crear un árbol bastante realista [5].
La combinación del SFM con otros métodos ha logrado más recientemente trabajos que permiten
fenotipar plantas, trabajo complejo que usualmente se realiza manualmente y por un ojo experto. Este trabajo
es ejemplificado por Santos y sus colegas los cuales utilizando imágenes reconstruyen una planta de
albahaca. El otro método requerido para combinar se denomina vista de multivideo estéreo o sus siglas en
inglés (MVS). Esta técnica es requerida cuando tenemos captura de video la cual genera movimiento en las
imágenes captadas, dando al traste con la imagen colectada ya que no se logra reconstruir sobre la base de
pixeles borrosos. El algoritmo demostró ser confiable en su reconstrucción, con un desempeño basado en el
análisis de 143 imágenes [6].
Las imágenes reconstruidas más efectivas siguen combinando la interacción con el usuario ya que la
oclusión de las hojas no permite ver ramas u otras hojas. En el trabajo de Guénard y compañía la
aproximación es muy buena en base a imágenes pero mantiene la combinación de la que hacemos referencia.
Ellos introducen un esquema de análisis por síntesis que determina mediante estructuras de sistemas L
patrones dentro de la imagen. La generación de reglas en base a la información de imágenes y una base de
datos inicial acelera la reconstrucción y la hace más real. En el trabajo se concluye que a más imágenes se
proporcionen, mayor la efectividad del algoritmo [7].
Existen trabajos con varios enfoques basados en imágenes tanto automáticos como con intervención. El
tema de la oclusión sigue abierto y la reconstrucción automática que es la que nos interesa en este trabajo
aún presenta muchos espacios de mejora, luego de la revisión especifica realizada.
Presentamos en el siguiente apartado un trabajo realizado para probar el desempeño de SFM basados en
el trabajo de COLMAP, para probar si la misma herramienta reconstruye vegetación con presión o si solo
funciona con edificios.
II. DESARROLLO
A. Captura y recuperación de imagenes.
Utilizamos un drone provisto de una cámara de 32 MP para capturar vídeos o fotogramas de la apariencia
de los árboles en una calidad 4K a 30 fps. La utilización de éste nos permite obtener imágenes con mayor
concordancia entre sus puntos de correspondencia. Contar con mayor estabilidad, altura y apertura de la
imagen, es algo clave para lograr obtener vistas con mayores detalles que nos ayuden a generar nubes de
puntos 3D que se asemejen a la versión real de los árboles. Al tomar fotografías desde la altura de una
persona, el ángulo no cubre la totalidad del árbol seleccionado, sin embargo, con una mayor altura otorgada
por el drone, se puede obtener mayor detalle de zonas más altas.
Cabe destacar que los fotogramas fueron realizados a diferentes horas del día, lo que podría tomarse
como un factor importante a la hora de realizar el procesado de las imágenes. Esto debido a la cantidad de
luminosidad generada por la luz solar de acuerdo a la hora y ángulo en que se encontraba el sol con respecto
a los árboles. El primer fotograma fue tomado alrededor de las 11:00 am, una hora del día en la que tenemos
gran cantidad de luz; el segundo fotograma fue realizado alrededor de las 3:00 pm del mismo día, teniendo
una cantidad de luz menor a la que se tenía con respecto al primero.
A partir de estos fotogramas, se extrajeron 165 imágenes del primer árbol, y 219 del segundo árbol las
cuales logran cubrir todas las perspectivas alrededor de los dos árboles. Esto se logra haciendo uso de una
aplicación llamada Free Video to JPG Converter para obtener las imágenes de los fotogramas tomados por
el drone. Las imágenes se obtuvieron de cada segundo del fotograma, resultando en una cantidad de imágenes
suficientes que cubría cada árbol a todo su alrededor. Estas imágenes obtenidas cubren en su totalidad la
altura del árbol, esto quiere decir, que se puede observar el árbol desde la base hasta la copa.
B. Procesado y recuperación de puntos.
Para realizar una reconstrucción en 3D utilizando SFM, se toma como proyección las imágenes de un
objeto deseado. Las entradas de este proceso es una serie de imágenes de un mismo objeto, las cuales son
tomadas desde diferentes ángulos para cubrir diferentes puntos de vista. Al final del proceso, obtendremos
una reconstrucción en 3D del objeto deseado.
La aplicación COLMAP nos ayuda a realizar una gran parte de este proceso. Esto inicia con la realización
de una detección y extracción de las características del objeto que en este caso son dos árboles. Luego este
realiza una búsqueda de coincidencias y verificación geométrica para terminar con una reconstrucción de la
estructura del objeto.

159
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Imagen 2. Nube de puntos del primer árbol

Dentro de este proceso se generó una nube de puntos (Fig. 2 y Fig. 3) por cada uno de los dos árboles
seleccionados. Dichas nubes de puntos sirven como guía para la generación del modelo en 3D que se va a
renderizar más adelante.

Figura 3. Nube de puntos del segundo árbol

C. Reconstrucción densa de puntos.


Una vez realizada la nube de puntos que recrea las escenas de los árboles, se puede recuperar una figura
geométrica densa del objeto. COLMAP realiza una reconstrucción densa de todos los objetos que se
procesaron en las etapas anteriores. Este modelo denso (Fig. 4 y Fig. 5) se logra gracias a la nube de puntos
que sirve de guía y la utilización de las proyecciones tomadas de las imágenes provistas gracias al drone.

Figura 4. Modelo denso del primer árbol Figura 5. Modelo denso del segundo árbol

El modelo denso del segundo árbol presenta aún mayor detalle debido a que se hace uso de 54 imágenes
más de las que se utilizaron para recrear el modelo para el primer árbol. Otro de los factores que influyeron
en la cantidad de detalles entre los dos es la cercanía, la luz y las sombras que tienen cada uno de los árboles,
los cuales afectan en la detección de los puntos y generación del modelo. Esto lo podemos evidenciar

160
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

observando las Fig. 6 y Fig. 7, las cuales son similares a las generadas en el modelo denso de cada una
respectivamente.

Figura 6. Imagen original del primer árbol Figura 7. Imagen original del segundo árbol

III. CONCLUSIONES
El código abierto COLMAP, como se mencionó anteriormente, realiza reconstrucciones de objetos como
edificaciones de una forma muy eficiente. Como podemos observar en las Fig. 4 y Fig. 5, el desempeño en
objetos más complicados como árboles, ha sido muy bueno. Haciendo uso de GPU’s para el procesado junto
con la herramienta, se ha logrado generar objetos 3D con gran similitud a los reales. Realizando una
comparación entre las Fig. 4 y Fig. 6, las cuales pertenecen al mismo árbol, y tomando en cuenta la hora en
que se realizó la captura de imágenes, podemos observar como en las zonas donde existe una gran cantidad
de luz se pierden detalles como el final de las ramas y hojas del árbol. En cuanto a las Fig. 5 y Fig. 7 podemos
observar que, al no tener tanta luminosidad, se puede obtener mayor detalle en el modelo, obteniendo una
recreación más cercana a la realidad.
Con el ángulo y la estabilidad de la cámara que nos brinda el drone y gracias a la altura en que este se
encontraba, podemos obtener detalles en ambos modelos de las partes más altas de cada uno de los árboles;
estos detalles no hubiesen podido ser obtenidos al utilizar una cámara de mano o con un trípode, ya que, cada
uno de los árboles son de alturas mayores a los dos metros y son zonas a las que no podemos acceder
fácilmente. Cabe mencionar que la cantidad de imágenes tomada de cada uno de los árboles también influye
en los detalles que se muestran en los modelos densos de cada uno. Con una diferencia de 54 imágenes entre
el primer y segundo árbol, se puede ver la gran diferencia que se genera al detallar cada uno. Por lo tanto,
podemos observar que tanto los factores de altura, calidad y ángulo de las imágenes, así como la cantidad de
estas utilizadas en la técnica SFM, influyen en la recreación del objeto 3D y sus detalles para semejarse al
objeto real.
IV. TRABAJOS FUTUROS
Muchos aspectos de nuestro trabajo pueden ser mejorados de diferentes maneras. Teniendo en cuenta los
aspectos de luz y altura se puede llegar a obtener mejores modelos y objetos en 3D. Parte del proceso que se
debe mejorar es la gran cantidad de ruido que se genera en las imágenes al no estar delimitadas solamente al
objeto que deseamos procesar. Esto provoca que la herramienta genere una cantidad de puntos que son
innecesarios y deben desecharse después de que se realizó el procesado.
Generar o utilizar herramientas que ayuden a realizar un filtrado previo de las imágenes o de los puntos
generados de forma automática, podría ayudaría a que el proceso de creación de los objetos 3D de una forma
más eficiente de la que hoy en día realizamos.
V. REFERENCIAS BIBLIOGRÁFICAS
[1] J. L. Schonberger and J. Frahm, "Structure-from-motion revisited," in Proceedings of the IEEE Conference on Computer Vision
and Pattern Recognition, 2016.
[2] P. Tan et al, "Image-based tree modeling," in ACM Transactions on Graphics (TOG), 2007.
[3] J. Liénard et al, "Embedded, real-time UAV control for improved, image-based 3D scene reconstruction," Measurement, vol.
81, pp. 264-269, 2016.
[4] C. Li et al, Modeling and Generating Moving Trees from Video. 201130(6).
[5] P. Tan et al, "Single image tree modeling," in ACM Transactions on Graphics (TOG), 2008.
[6] Santos and A. A. De Oliveira, "Image-based 3D digitizing for plant architecture analysis and phenotyping." in Embrapa
Informática Agropecuária-Artigo Em Anais De Congresso (ALICE), 2012.

161
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[7] J. Guénard et al, "Reconstructing plants in 3d from a single image using analysis-by-synthesis," in International Symposium on
Visual Computing, 2013.

162
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Control Óptimo para WNCS, a través de la


nube.
Optimal Control for WNCS, Through The
Cloud
Carlos Pillajo, Paul Pachacama, Silvia Chuquin
Universidad Politécnica Salesiana
cpillajo@[Link] ; ppachacama@[Link] ; schuquin@[Link]

Roberto hincapié
Universidad Pontificia Bolivariana
[Link]@[Link]

Resumen — Wireless Network Control System es un sistema que contiene agentes inteligentes, los cuales abordan
áreas de conocimiento como la teoría de control, la comunicación y la computación; de tal manera que al
combinarlas se tienen aplicaciones ciberfísicas, en las cuales los sensores, actuadores y controladores interactúan
a través de una red inalámbrica. Una de las ventajas principales es la reducción de costo tanto en la
implementación como en el mantenimiento, se reduce el cableado y se tiene mayor flexibilidad, por otro lado, se
presentan limitaciones ya que en el medio no es ideal. Debido a la complejidad de estos sistemas existen pocas
aplicaciones prácticas en donde el lazo de control se realiza a través de la nube. Razón por la cual se desarrolló
el control de velocidad de un Motor AC mediante técnicas de control óptimo como el control Fuzzy, y el control
LQG, estos algoritmos del controlador están alojados en la nube, en cambio, en el lado de la planta están el
sensor y el actuador, tanto planta como controlador se comunican inalámbricamente optando por una
comunicación cliente-servidor, con protocolo SOAP

Palabras clave; Control Óptimo; Controyl Fuzzy; Control LQG; WNCS; Nube.
Abstract — Wireless Network Control System is a system that contains intelligent agents, which address areas
of knowledge such as control theory, communication and computing; in such a way that when combined they
have cyber-physical applications, in which the sensors, actuators and controllers interact through a wireless
network. One of the main advantages is the reduction of cost both in the implementation and in the maintenance,
the wiring is reduced and there is greater flexibility, on the other hand, there are limitations since in the medium
it is not ideal. Due to the complexity of these systems there are few practical applications where the control loop
is made through the cloud. Reason why the speed control of an AC Motor was developed by means of optimal
control techniques such as the Fuzzy control, and the LQG control, these controller algorithms are housed in
the cloud, instead, on the side of the plant are the sensor and the actuator, both plant and controller communicate
wirelessly opting for a client-server communication, with SOAP protocol

Keywords: Optimal Control; Controyl Fuzzy; LQG control; WNCS; Cloud.

I. INTRODUCCIÓN
En la actualidad los Sistemas Ciber-Físicos busca mejorar la calidad de vida de las personas, a través del
monitoreo constante y también del respectivo control [1], [2]. En el mundo físico donde vivimos se utiliza
las herramientas del mundo cibernéticos y estos enlazando teorías de control, comunicación y computación
se hace realidad lo que en años anteriores se creía imposible. Los sistemas de control en red inalámbrica
(WNCS) en la actualidad es una tecnología confiable y de alta velocidad, los más simples son los que se
aplican en una planta, con un controlador y tiene comunicación punto a punto entre ellos. La ventaja más
notable es la reducción de costos y un ahorro en el cableado, uno de los desafíos que se enfrenta esta
tecnología es sin duda los retardos en la comunicación ya que el canal por donde pasan los datos no es ideal.
A partir del avance del Internet de las cosas aparece el Internet industrial de las cosas (IIoT), en donde
una maquina industrial es conectada a la nube para el almacenamiento de los diferentes datos que se generen
en el proceso industrial [3], [4], en el presente proyecto se desarrolla el control de velocidad de un motor AC
monofásico, controlando el ángulo de fase, dicho control consiste en ingresar una componente de corriente

163
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

continua en la energía alterna, dependiendo del nivel de corriente continua se puede incrementar o disminuir
la potencia en la carga, este tipo de control es utilizado en calefacción y la iluminación. Para este tipo de
control se tiene un tiempo de conducción y un tiempo de apagado para cada semiciclo de la onda

II. DESARROLLO E IMPLEMENTACIÓN


A. Componentes del Sistema
Para el control de la planta, motor AC se diseñó en base al microcontrolador ATMega2560 54 pines en
una placa arduino de los cuales se utilizaron de la siguiente forma: 1) El pin 2 se utilizó para detectar el cruce
por cero de la onda de voltaje alterno, 2) El pin 3 para realizar un conteo y a su vez la velocidad del motor
en revolución por minuto (RPM), y 3) El pin 9 para enviar la señal de disparo para activar el TRIAC con
cierto ángulo y un por un tiempo de 2us, como se puede ver en la siguiente Figura 1

Figura 1. Diagrama de bloques del sistema WNCS local WLAN


Para la comunicación de la planta al controlador en la WLAN o WAN se utilizó el Módulo Dragino Yun
Shield, el cual dispone de Ethernet y wifi, teniendo así la posibilidad de ser configurado como cliente
mediante la librería HttpClient la cual permite hacer peticiones tales como: HTTP, GET, POST y PUT a un
servidor web. [5] . La implementación del controlador para la WLAN se utilizó la tarjeta Raspberry Pi 3B,
la cual es muy utilizada en el ámbito de la IoT (Internet de las cosas) [6], se trata de un computador pequeño
prácticamente del porte de una mano humana
La comunicación entre la planta (cliente) y el controlador (servidor) se realizó mediante protocolo SOAP
(Simple Object Access Protocol) el cual es un formato de intercambio de mensajes para la comunicación
entre aplicaciones. El protocolo SOAP combina XML lo que es la parte de codificación de los diferentes
mensajes y utiliza HTTP como protocolo de transporte, se utilizó este protocolo por: a) Es un protocolo
utilizado para la comunicación entre diferentes dispositivos y servicios a través de Internet; b) SOAP está
disponible para todas las plataformas, c) Tiene una buena seguridad siendo simple y altamente efectiva; d)
este protocolo que permite pasar firewalls.
El protocolo SOAP se encarga en el presente proyecto, del intercambio de datos entre la planta y el
servidor, este intercambio de datos se realiza en formato JSON que tiene un formato de texto independiente
del idioma, en esta implementación se utiliza el formato JSON para la transmisión de datos como: la
velocidad del motor, el Setpoint y el ángulo de disparo del motor, toda la programación del controlador se
lo realizó en el lenguaje de programación PHP que tiene código abierto para desarrollar aplicaciones en la
web con comunicación cliente - servidor. En el controlador se programó los diferentes algoritmos de control
tanto Fuzzy y LQG.
B. Diseño de la etapa de control y potencia
Para que la etapa de control y la etapa de potencia estén debidamente sincronizadas se debe obtener el
cruce por cero de la señal de voltaje alterno para que el controlador pueda saber cuándo poner en marcha el
temporizador que va a dar la activación del ángulo de disparo.

164
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Como la señal del voltaje alterno es de 110VAC, este puede afectar a los dispositivos como los
microcontroladores que apenas manejan 5VDC, se utilizan opto acopladores para aislar los voltajes, en este
caso el integrado desarrollado por Arduino H11AA1 nos permite obtener la señal de cruce por cero, la
velocidad del motor en RPM se define por el número de polos que tenga, en el motor utilizado tiene 3 polos
quiere decir que tiene un máximo de 1800 RPM. Para medir las RPM el módulo de Arduino brinda una
forma de obtener este dato, además de poder aumentar o reducir la precisión del encoder aumentando o
disminuyendo las ranuras del disco.
Para realizar el disparo del TRIAC se debe considerar que la duración de un semiciclo de la onda dura 8.33
ms (t3), por lo que el ángulo de disparo (t1) debe tener un retardo máximo de 8.33 ms para evitar que el
disparo haga que conduzca el semiciclo posterior, así como se debe tener un retardo mínimo de 1ms (t2) para
asegurar que el TRIAC este polarizado inversamente al semiciclo anterior y pueda conducir adecuadamente,
como se puede ver en la Fig.2. La duración del pulso depende del TRIAC a utilizar, en la mayoría de los
casos la duración del pulso debe ser mayor a 1ms, pero para asegurar la conducción del TRIAC se deja el
tiempo de disparo en 2ms.

Figura 2. Diagrama del comportamiento de las señales de control y de potencia.


Desde el controlador se va a enviar únicamente un pulso para activar el semiciclo de la señal de corriente
alterna, dependiendo del ángulo de disparo se deja pasar un mayor voltaje RMS del voltaje alterno. Esta parte
necesariamente debe estar conectada a la parte de control, pero mediante un optotriac el cual permite
controlar el voltaje alterno con señales de bajo voltaje.

III. ALGORITMOS ÓPTIMOS PARA EL CONTROLADOR


Se tiene una base teórica para la implementación de algoritmos de controladores óptimos y para sistemas
de control a través redes se tiene en: [7],[8], [9], [10], [11]
A. Diseño de Algoritmo Fuzzy
Para el diseño del control Fuzzy debemos tener disponible el comportamiento de la planta. Para obtener
los datos de entrada y salida del sistema, voltaje y RPM, se puede analizar la reacción del motor ante una
variación de voltaje, que depende del ángulo de disparo, tomando como estado inicial el sistema en reposo,
es decir RPM=0 y Angulo=180°

Figura 3 Comportamiento del motor a cambios de ángulo de disparo

165
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

A partir del comportamiento obtenido en la Figura N3. Se puede observar que el comportamiento del
sistema no es lineal, además de que para el diseño del algoritmo se debe tomar en consideración tanto el
ángulo de disparo como la velocidad que se genera.
El diseño del controlador se lo puede realizar en Matlab mediante el comando Fuzzy, para el diseño de
las entradas difusas se debe considerar lo siguiente:
• Los cruces entre funciones de membresía deben ser mayores al 50% del valor en Y de la función, es
decir se deben cruzar en referencia al eje Y con 0,5 o más.
• En cada entrada debe existir un número impar de funciones de membresía, pero no debe ser mayor a 9.
Para las entradas del sistema se va a considerar al Set Point como una entrada de referencia y se la
considerara como la Entrada Difusa 1, y se van a considerar los siguientes puntos:
• Rango: 0-1800 [RPM]
• Número de funciones de membresía: 3
• Tipo de funciones de membresía: Triangulares.
El diseño de la Entrada Difusa 1 depende en su mayoría de los datos obtenidos en la Figura 3 donde se
aprecia las zonas donde se tiene una mayor variación de RPM entre 0-1200RPM así que se considera a estos
puntos como cruciales para el diseño de las funciones de membresía,
La Entrada Difusa 2 va a ser las revoluciones por minuto obtenidas por el encoder acoplado al rotor del
motor, para el diseño se consideraron los mismos aspectos en los que está basado el diseño de la Entrada
Difusa 1, pero en este caso se debe recorrer las funciones un poco a la derecha a bajas RPM y hacia la
izquierda a altas RPM
Las reglas de inferencia nos ayudan a vincular las entradas difusas con la salida difusa, para la
implementación del algoritmo se tomaron en cuenta los siguientes aspectos:
• Siguiendo los modelos de comportamiento se puede observar que el ángulo de disparo es inversamente
proporcional a las revoluciones obtenidas por el encoder, esto nos indica que para obtener una velocidad
baja debemos enviar un ángulo alto.
• Para el diseño se utiliza la inferencia por el mínimo porque en velocidades bajas de hasta 500 RPM se
tiene una variación de ángulo de menos de 30°, si se lo realizara por el máximo se incrementaría el
error porque al momento de vincular los valores obtenidos en las reglas de inferencia con la salida
difusa final existirían valores más al centro de la función que en los extremos.
Como se tiene el mismo número de funciones de membresía en las entradas difusas se pueden realizar
en la misma ventana de la función Fuzzy en Matlab
Diseño de la Salida Difusa
La Salida Difusa es la parte más importante del algoritmo y su diseño depende de varios factores tales
como el comportamiento del sistema, las reglas de inferencia y el método de defusificación utilizado. Para
la implementación del controlador se consideraron los siguientes aspectos:
• Debido al comportamiento no lineal del motor se tienen tres zonas distintas, la primera de bajas
revoluciones, la segunda que tiene velocidades intermedias y la tercera con velocidades altas, entonces
se tomaron 3 funciones de membresía de forma triangular considerando que deben cortar en el eje Y
con 0,5 o más.
• Al considerar el coste computacional y la extensión de la Salida Difusa se considera al método de centro
de área como el más efectivo ya que únicamente requiere sumas y multiplicaciones para llegar a un
resultado preciso.
Obtención de la Función de Transferencia.
Para obtener la función de transferencia se ingresa al sistema voltaje alterno y se obtiene la reacción de la
planta en RPM. A continuación, se muestra la obtención de la función de transferencia utilizando los datos
obtenidos en la Figura 4, los datos son ingresados a MATLAB y por medio de la herramienta IDENT se
genera lo siguiente:

166
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 4. Cálculo de la función de transferencia, elaborado en Matlab


A partir de los datos obtenidos del comportamiento de la planta se va a generar la función de transferencia
para así tomar la función que tenga el mejor índice de aproximación, se considera como buena aproximación
a aquella que tenga 80% o mayor. La función de transferencia utilizada es:
0.04059 𝑠 + 0.001236
𝑡𝑓 = (1)
𝑠 2 + 3.46𝑒 − 07 𝑠 + 4.57𝑒 − 05
La función de transferencia de un motor de inducción ya sea monofásico o trifásico debe llevar un Zero
y dos polos para obtener una mejor aproximación.[12]

B. Diseño del controlador LQG


El algoritmo de control Gaussiano se compone básicamente de un estimador y de un regulador [13]–[15],
juntos hacen que el algoritmo tenga una respuesta eficiente ante cualquier ruido, Figura 5

Figura 5. Diagrama de Bloques del controlador LQG


El diseño del estimador se lo puede realizar mediante Matlab el cual con el comando LQR(), nos permite
obtener el resultado óptimo de la matriz K conociendo las matrices de estado A y B, en caso de que la planta
lo requiera se debe incluir la matriz de estado C, en este caso las matrices de estados constan los valores de
A, B Y C, mediante el comando [A B C D]=tf2ss(numerador de la FT, denominador de la FT), el resultado
se muestra a continuación:
0.05482 −1.6415 0.000173369505170952
𝐴=( ) ; 𝐵=( ) ; 𝐶 = (−5354.9428) (2)
0.038 0.9549 0.00296313899340247

Al ingresar el comando LQR () se obtiene el siguiente valor de K


𝐾 = [0.0930394278753122; 31.1356494176753] (3)
El valor de la constante de Kalman también puede obtenerse mediante Matlab con el comando KALMAN(),
esta función requiere que se conozca la función de transferencia de la planta en matrices de estados, el valor
obtenido se representa con la letra L y es el siguiente:
−5.87985161274677𝑒 − 16
𝐿=( ) (4)
0.000106067034246058
Para la implementación del algoritmo LQG en el servidor debemos pasar todas las constantes y matrices
calculadas a lenguaje PHP para únicamente al obtener un valor de Set Point y Encoder a la entrada entregar
correctamente únicamente un valor de salida.

167
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IV. IMPLEMENTACIÓN DE LA COMUNICACIÓN ENTRE LA PLANTA Y EL CONTROLADOR VIA WAN

A continuación se presenta las diferentes configuraciones de las herramientas de software requeridas para
albergar los diferentes controladores en la “nube”, para poder monitorear, controlar la velocidad del motor
AC monofásico desde cualquier parte del mundo.
A. Comunicación Cliente-Servidor

Figura 6. Diagrama de bloques de la comunicación cliente-servidor


Como se observa en la Figura anterior el cliente (Dragino) envía al servidor un POST SOAP, esto significa
que pide al servidor los diferentes datos, en este caso el dato que nos interesa es el del ángulo, que sirve para
controlar la planta y obtener la velocidad de la misma.
Configuración del Servidor en la nube
Para alojar el controlador en la nube se utiliza la plataforma SmarterASP, que provee de un hosting y el
dominio en donde el proveedor otorga un espacio y la dirección URL, en donde se alojarán el algoritmo y
los archivos necesarios para el intercambio de información entre el cliente y el servidor. El direccionamiento
de los diferentes dispositivos y servidores que actúan en el sistema de control de red inalámbrica se especifica
en la Figura 7a (WLAN) y lo que es el servidor en la nube se detalla en la Figura 7b (WAN).

Figura 7. Arquitectura de comunicación a) Red inalámbrica Local WLAN; b) Red WAN


En la arquitectura cliente-servidor la comunicación la inicia el cliente mediante una petición POST, el
protocolo utilizado es el SOAP, el cliente fue programado en el arruino, con respecto al servidor se
encuentran alojados los diferentes archivos php, tales como: [Link], [Link], server. Php y [Link]
B. Comunicación en el Cliente
El cliente, en este caso es el Arduino (Dragino), en donde se especifica un encabezado que se utilizó para
que el servidor responda al cliente por medio del protocolo SOAP. El cliente está conformado por el Arduino
mega 2560 con el módulo Dragino Yun el cual es un módulo para la comunicación inalámbrica, en donde
está la programación del cliente. En la siguiente figura se visualiza las líneas de comandos, es decir la
cabecera del protocolo SOAP necesaria para la comunicación cliente-servidor. El método POST se utiliza
para enviar el mensaje codificado por medio de HTTP.

168
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 8. Encabezado en el cliente para comunicación protocolo SOAP


Después de enviar un mensaje POST se recibe una respuesta, la cual es leída y depurada para la correcta
interpretación, como se detalla en la Figura 8. Al momento de realizar la lectura de la respuesta, se recibe los
diferentes datos como String, se debe realizar la conversión a un dato doble, para ser utilizado posteriormente.
C. Comunicación en el Servidor
Para la comunicación mediante protocolo SOAP se utilizó la librería NuSoap la misma permite al
desarrollador Web efectuar fácilmente los diferentes servicios web (permitiendo la comunicación entre el
servidor y un cliente solicitante del mismo) en el presente trabajo se utilizó la Liberia NuSOAP para crear
los archivos [Link] y [Link] los cuales sirven para entablar la comunicación entre el servidor y el
cliente [Link] .- Los datos del Setpoint, encoder y ángulo, se encuentran guardados en el archivo
llamado [Link], este archivo es utilizado posteriormente para guardar los mismos, una de las razones por
las cuales se utiliza, es para ahorrar recurso en el servidor.
En [Link] se encuentran los diferentes servicios ofrecidos por el servidor y definidos en [Link],
como son: Server_enc, Server-stp y Server_angulo, definido cada uno a continuación.
[Link] – Servidor.- Se llama a la función correspondiente de la clase server y la respuesta de la función
es devuelta al cliente solicitante, en esta parte “soapClient->call “, el cliente llama a la respectiva función
enco (), setp () y angul (), que se encuentran el archivo del [Link]
[Link] – Servidor.- Se declara las funciones a usarse, tales como las variables de entrada y salida a cada
función.
Índex – Servidor.- El índex es la interfaz gráfica del servidor.
D. PRUEBAS Y RESULTADOS
A continuación, se muestra las pruebas y resultados conseguidos de los diferentes controladores de
velocidad, tanto el del Fuzzy y LQG para la determinación de cual es mejor. Estos controladores se
encuentran en la nube, esto quiere decir en una red WAN.

Figura 9. Comportamiento de los controladores óptimos ante un cambio de referencia


Para el algoritmo Fuzzy tenemos una única zona donde el error es considerable y se obtuvo un error máximo
de 190 RPM lo que equivale al 10,55%, mientras que el error absoluto que se obtuvo un 2,47% lo que hace
que el algoritmo sea eficiente.
Mientras que para el algoritmo LQG tenemos dos zonas donde el error es considerable, pero se obtuvo un
error máximo de 41 RPM lo que equivale al 8,89% lo que lo hace más eficiente que el algoritmo Fuzzy,
mientras que el error absoluto que se obtuvo un 2,29% lo que hace que el algoritmo sea eficiente.

169
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. CONCLUSIONES

La principal diferencia entre los controladores utilizados es la obtención de los datos para el diseño del
controlador, el controlador Fuzzy es mucho más sencillo ya que solo se necesita una descripción general de
la planta para obtener un desempeño aceptable, pero en cuanto al LQG se requiere de un modelamiento
matemático más exacto como la función de transferencia y las matrices de estados además se necesita obtener
la ganancia del estimador y del controlador como las matrices L y K, respectivamente.
La latencia se da entre el servidor y el cliente, esto quiere decir que lo que influencia para que no existan
los retrasos depende de donde está ubicada la planta. Es importante dar los respectivos permisos de lectura
y escritura a los archivos para evitar que el cliente tenga problemas con acceder a los mismos del servidor.
Se recomienda como trabajo futuro implementar procesos donde intervengan varios actuadores y
sensores para estudiar el consumo del ancho de banda, también para observar como los demás dispositivos
impactan en los diferentes procesos en el respectivo servidor.

VI. REFERENCIAS BIBLIOGRÁFICAS

[1] A. Villalonga Jaén, F. Castaño Romero, R. Haber Guerra, G. Beruvides López, and J. Arenas, “El control de
sistemas ciberfísicos industriales. Revisión y primera aproximación,” pp. 5–7, 2018.
[2] T. D. E. Titulación, P. A. La, O. Del, D. E. I. E. N. Mecatrónica, A. B. Carrera, D. Javier, C. Manotoa, and
B. Fabian, Departamento de ciencias de energía y mecánica. 2019.
[3] J. Ríos, “Sistemas de Control Distribuido en la Industria,” vol. 2018, no. c, p. 23, 2008.
[4] J. F. Monsalva Posada and A. Arias Londoño, “Redes inalámbricas para control de procesos industriales en
tiempo real,” Rev. Politec., vol. 9, pp. 82–93, 2013.
[5] G. A. Gomez Reina and R. M. Choez Velez, “Telecontrol Domótico de Casa de campo,” 2015.
[6] A. K. Dennis, Raspberry Pi Home Automation with Arduino. 2013.
[7] M. G. Simoes, “Introduction to fuzzy control,” Color. Sch. Mines, Eng. Div. Golden, Color., pp. 1–5, 2010.
[8] R. Fuller, Advances in Soft Computing. 2016.
[9] F.-Y. Wang, D. Liu, and D. L. Fei-Yue Wang, Networked control systems : theory and applications. 2008.
[10] O. Auckland Boston Johannesburg Melbourne New Delhi, “Adaptive Control Systems GANG FENG and
ROGELIO LOZANO.”
[11] F. L. Lewis, “Applied Optimal control & Estimation.” Prentice Hall Inc., 1992.
[12] Muhammad H. Rashid, “Electronica Potencia.” Prentice Hall Inc., Mexico, 1993.
[13] D. Maity, M. H. Mamduhi, S. Hirche, K. H. Johansson, and J. S. Baras, “Optimal LQG control under delay-
dependent costly information,” IEEE Control Syst. Lett., vol. 3, no. 1, pp. 102–107, 2019.
[14] T. Iwaki and K. Henrik Johansson, “LQG Control and Scheduling Co-Design for Wireless Sensor and
Actuator Networks,” IEEE Work. Signal Process. Adv. Wirel. Commun. SPAWC, vol. 2018–June, pp. 1–5,
2018.
[15] N. M. Alyazidi and M. S. Mahmoud, “On LQG control design for network systems with/without
acknowledgments using a particle filtering technology,” Appl. Math. Comput., vol. 359, pp. 52–70, 2019.

170
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Una breve perspectiva del currículo de


computación en el advenimiento de las
tecnologías cuánticas
Caso: Universidad Nacional de Ingeniería, Managua, Nicaragua

A brief perspective of the computing


curriculum in the advent of quantum
technologies
Case: National University of Engineering, Managua, Nicaragua

Narciso Javier Aguilera Centeno


Departamento de Arquitectura y Sistemas de Aplicaciones, Facultad de Electrotecnia y Computación.
Universidad Nacional de Ingeniería. Managua, Nicaragua
e-mail: [Link]@[Link]

Resumen — En los últimos años, grandes empresas de tecnología han estado trabajando con relativo sigilo, sobre
una línea de investigación muy prometedora basada en la aplicación de los principios de la física cuántica a la
computación. En enero de 2019, fue presentado al público “el primer sistema de computación cuántica universal
diseñado para el uso científico y comercial” [15]. Sólo diez meses antes, se había introducido un procesador
cuántico de 72 qubits [10]. Se prevé que la computación cuántica traerá consigo una auténtica revolución
tecnológica debido a la introducción de profundos cambios en las TIC. En este trabajo se compila información
que contribuya a determinar si la Universidad está preparada para una transformación curricular profunda en
la carrera de Ingeniería en Computación, de manera que se preserve la pertinencia del currículo y las
competencias de los futuros profesionales de la computación ante los cambios esperados.

Palabras clave; currículo; computación cuántica; qubits; entrelazamiento; superposición; decoherencia;


principio de incertidumbre.
Abstract — In the past few years, large technology companies have been working in relative secrecy, on a very
promising line of research based on the application of the principles of quantum physics to computing. In
January 2019, publicly knew “the first universal quantum computing system designed for scientific and
commercial use" [15]. Only ten months earlier, had been introduced a quantum processor of 72 qubits [10].
Quantum computing should bring with it an authentic technological revolution, due to the introduction of
profound changes in ICT. This work compiles information that helps to determine if the University is ready for
a deep curricular transformation in the career of Computer Engineering, to preserve the relevance of the
curriculum and the skills of future computer professionals in the face of changes expected.

Keywords; curriculum; quantum computing; qubits; entanglement; superposition; decoherence; uncertainty


principle..

I. INTRODUCCIÓN
Hace más de tres siglos, Isaac Newton comprendió la importancia de las matemáticas para modelar el
universo físico que nos rodea. Gracias a ello, pudo formular las leyes básicas que describen el movimiento
de los cuerpos celestes y los objetos que podemos apreciar de forma cotidiana [34]. La física ha contribuido
significativamente a construir el mundo en el cual vivimos hoy. Por ejemplo, las ecuaciones de Maxwell han
tenido un impacto determinante en el desarrollo tecnológico alcanzado en los últimos 150 años. La radio,
televisión, telefonía fija y móvil, computación, Internet, etc. han sido posibles, en gran medida, gracias a
ellas [17].
A finales del Siglo XIX, Max Planck, al intentar explicar por qué los objetos cambian de color al
calentarse aplicando los conceptos de la “física clásica”, se percató que las respuestas ofrecidas mediante ese
paradigma eran erróneas. De modo que se hizo necesario adoptar un enfoque diferente para hallar las

171
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

respuestas correctas [28]. Se planteó una nueva hipótesis y la demostró. Pero los resultados obtenidos no se
correspondían con las leyes de la física clásica. En diciembre de 1900, Planck presentó su derivación de la
ley de distribución para la radiación del cuerpo negro a la Sociedad Física Alemana, y el concepto de quanta
de energía hizo su primera aparición en física [19].
Uno de los primeros físicos en adoptar seriamente los descubrimientos de Planck fue Einstein [1], quien
tomando de referente los resultados del primero, comprobó que la luz tenía un comportamiento dual: como
onda y como partícula [20]. En este punto, según Stephen Hawking, la diferencia básica entre la física clásica
y la cuántica estriba en que en la primera se puede predecir tanto la posición como la velocidad de las
partículas, mientras que en la teoría cuántica no se puede predecir ninguna de las dos [37], [38].
La mecánica cuántica describe de manera precisa el comportamiento de la luz y la materia. También ha
permitido el desarrollo de tecnologías como máseres, láseres, transistores y pastillas de circuitos integrados,
que constituyen la base de la electrónica moderna, particularmente, el hardware de computadoras [23]. Podría
decirse que la computación, tal y como la hemos conocido hasta ahora, ha sido posible gracias a lo que podría
considerarse como una primera etapa de la aplicación de la mecánica cuántica.
La física cuántica nos brinda un mecanismo totalmente nuevo para procesar y transmitir información. En
la computación cuántica se hace uso de las leyes de la mecánica cuántica para la realización de los cómputos.
Se destacan entre sus conceptos básicos el principio de incertidumbre, la superposición de estados, el
entrelazado cuántico y la decoherencia de los estados. A diferencia de la computación “clásica”, utiliza bits
cuánticos (qubits) que, gracias al principio de superposición, existen en todas sus posibles configuraciones
del espacio de estados posible. Eso significa que un qubit puede ser 0 o 1, o bien, podría ser 0 y 1 a la vez.
También hace uso del paralelismo cuántico y del entrelazamiento, donde las propiedades de las partículas
entrelazadas están relacionadas. Además, conserva la coherencia, es decir, se mantienen todas las
propiedades cuánticas del conjunto [3], [9]. Esas particularidades del universo cuántico (superposición,
entrelazamiento, etc.), permiten la realización de tareas que actualmente son muy difíciles de manejar (o
imposibles) con los recursos de que se disponen en la computación “clásica”.
II. UN NUEVO PARADIGMA: COMPUTACIÓN CUÁNTICA
A. Necesidad de un cambio de paradigma en computación
Las tecnologías actuales están llegando a los límites de la información cuántica. Por ejemplo: los
transistores hoy en día pueden ser del tamaño de un grano de sal, una molécula o hasta de un átomo. Hasta
hace muy poco tiempo, solamente se tenía la capacidad de manipular conjuntos (de moléculas, átomos,
fotones, etc). En la actualidad, se tiene la capacidad de manipular sistemas cuánticos individuales: qubits,
moléculas, átomos o fotones individuales. Esto abre todo un universo de nuevas posibilidades para el
desarrollo tecnológico [4], [9], [14], [26], [32].
La computación cuántica promete computadoras más rápidas y con mayor poder de cómputo, con
múltiples aplicaciones. Se mencionan entre ellas la solución de problemas “duros” (problemas NP-
completos) y la seguridad informática, ya que tiene el potencial de mantener claves privadas a salvo de
hackers e intrusiones, no importa donde se almacenen o se procesen [24]. También se prevén múltiples
aplicaciones en grandes avances médicos y en la elaboración de nuevos materiales, tomando en cuenta que
una computadora cuántica mimetiza la forma en la que “trabaja” la naturaleza, por lo cual podría simular,
entender y mejorar las moléculas y sus interacciones mejor que un computador clásico. Otra promesa
destacada es en el campo de la inteligencia artificial, pues se considera que permitirá acelerar
significativamente el aprendizaje automático y las tareas analíticas tales como el análisis topológico.
Además, ofrece la posibilidad de acelerar los procesos de búsqueda de información en grandes bancos de
datos y en la minería de estos, al permitir el establecimiento de conexiones y relaciones a mayor velocidad
de lo que es posible en la computación “clásica” [3], [9].
Esto fue avizorado en 1982 por Feynman, quien escribió en un artículo [8] sobre la posibilidad de que
los ordenadores funcionaran por principios cuánticos. Si se entiende que la información puede ser
almacenada y procesada por medios físicos, es posible comprender que las leyes de la física también se
aplican a la información. Por lo tanto, no resulta peregrina la idea de que la mecánica cuántica también puede
soportar el desarrollo de tecnologías para el manejo y tratamiento de la información. Podría decirse, en
términos prácticos que, desde entonces, un gran número de científicos de renombre se han dedicado a fundar
los cimientos de lo que actualmente se conoce como la computación cuántica. Universidades de prestigio y
grandes empresas del sector tecnológico (TIC) han apoyado estos esfuerzos.
B. Implicaciones del desarrollo de la computación cuántica
En la actualidad, las investigaciones en mecánica cuántica han hecho posible tener un mayor control de
las particularidades del universo cuántico (superposición, entrelazamiento, etc.). Esto, aunado al apogeo de
la era de la información, ha dado paso a una amplia variedad de líneas de investigación e innovaciones a la

172
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

cual suelen referirse en los medios que abordan este tema como el inicio de la “era de la información
cuántica” [3], [9].
El desarrollo de la computación cuántica trae aparejado ciertas implicaciones. Para empezar, aunque el
hardware de estas nuevas tecnologías incorpora elementos relevantes de la computación “clásica” [39], la
arquitectura de las computadoras cuánticas difiere significativamente de las nociones de arquitectura que
predominan en la actualidad. Otro aspecto importante a tomar en cuenta es la necesidad de desarrollar nuevos
algoritmos que aprovechen al máximo las características de las computadoras cuánticas. En consecuencia,
se necesitan nuevos lenguajes de programación para esta nueva tecnología y, por tanto, se requieren nuevos
compiladores capaces de traducir los programas a los lenguajes de máquinas basados en “qubits” de los
procesadores cuánticos. Desde hace varios años, la comunidad científica se ha dedicado al estudio de
algoritmos, lenguajes de programación, compiladores y arquitecturas de software propios de la computación
cuántica [18], [24], [27].
Ya son bastante conocidos algunos algoritmos cuánticos, entre los que se destaca el Algoritmo de Shor,
utilizado para la factorización de grandes números. En la actualidad, los algoritmos de seguridad informática
más confiables y populares se basan en la dificultad que tienen las computadoras no cuánticas para factorizar
números grandes, lo que dificulta los llamados “ataques de fuerza bruta”. Ya se han publicado algoritmos
cuánticos que garanticen la seguridad de los sistemas dominados por la computación cuántica [24]. De
manera que la seguridad informática deberá experimentar cambios significativos.
También existen lenguajes de programación cuántica. Un conocido fabricante de software ya sacó al
público un nuevo lenguaje de programación cuántico, al cual ha llamado Q# [22], [30], [31]. Es descrito
como un lenguaje de programación “de dominio específico centrado en el quantum diseñado explícitamente
para expresar de forma correcta, clara y completa los algoritmos cuánticos" [21]. Otra gran empresa ha
desarrollado QISkit (Quantum Computer Information Software Kit), que es un framework de código abierto
para computación cuántica [13], [36]. Aunque estos parecen estar entre los más publicitados, no son los
únicos. Existen muchos otros como LandQ [12], Quipper [7] y LIQUi [6], [29], solo por mencionar algunos
de ellos.
A inicios del año 2019, una gran empresa de la industria del hardware de computación, presentó al
público lo que denominó como “el primer sistema de computación cuántica universal diseñado para el uso
científico y comercial”. La máquina, de 20 qubits, está contenida en una urna de cristal que mantiene la
temperatura estable y absorbe las vibraciones y el sonido, para proteger los extremadamente delicados
procesadores cuánticos [15], [16]. Si bien es cierto que el mismo fabricante admitió durante su presentación
que “todavía estamos en un nivel muy teórico, y quedan algunos años para que realmente tengamos sistemas
totalmente comerciales”, también vaticinó que se podrá contar con computadoras cuánticas comerciales en
tres o cinco años [15].
Tan solo diez meses antes del evento anterior, otra gran empresa de tecnología había presentado
Bristlecone, un procesador cuántico de 72 qubits. El anuncio se hizo durante la reunión anual de la American
Physical Society en Los Ángeles. El objetivo declarado por los desarrolladores es construir una computadora
cuántica que pueda utilizarse para resolver problemas del mundo real. Al mismo tiempo expresan su creencia
de que este procesador sería una prueba de principio convincente para construir computadoras cuánticas a
gran escala [10].
Estos anuncios motivan preguntarse: Si estas computadoras cuánticas empiezan a ser comercializadas en
unos 10 años ¿qué pasará con la pertinencia de los millones de profesionales de la computación cuyas
competencias están restringidas a un entorno tecnológico dominado por la computación “clásica”?
También surgieron casi de inmediato, otras interrogantes: ¿Está preparada la carrera de computación para
graduar profesionales con las competencias necesarias para desempeñarse en un entorno tecnológico
dominado por la computación cuántica? Los alumnos que actualmente están en las aulas y los que entren en
los próximos 5 años, ¿tendrán al graduarse las competencias necesarias para desempeñarse en un entorno
tecnológico dominado por las nuevas tecnologías cuánticas? ¿Qué se puede hacer para que el currículo de
computación siga siendo pertinente en ese contexto?
III. METODO Y RESULTADOS
Para tratar de encontrar respuestas a estas interrogantes, se procedió a implantar un modelo simplificado
de investigación exploratorio que, en su primer paso, permitiera identificar los puntos fuertes y débiles más
notorios de la carrera de cara a un cambio de paradigma tecnológico introducido por la computación cuántica.
A. Revisión del pensum de estudios
Lo primero que se hizo fue revisar el pensum académico [40], [41] de la carrera de Computación,
incluidos los programas analíticos de cada asignatura. Los resultados fueron los siguientes.

173
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

1- Se imparten en la carrera de Computación las asignaturas Física I y Física II, en IV y V semestre


respectivamente. Sin embargo, el contenido de Física I solamente abarca cuatro temas: Cinemática,
Dinámica, Leyes de Conservación y Termodinámica. Por otra parte, en Física II se ven también cuatro
unidades: Electrostática, Corriente Eléctrica, Magnetismo y Circuitos de Corriente Alterna. En ninguna de
estas dos asignaturas se imparten temas relacionados con Física Cuántica.
2- Se revisaron uno a uno los programas analíticos de cada una de las asignaturas que según el
flujograma de la carrera corresponden impartirse. En ninguna de ellas se estudian o abordan temáticas
relacionadas con la computación cuántica, física cuántica u otros temas similares.
3- Al profundizar un poco más sobre el asunto, se indagó si en alguna carrera impartida en la
Universidad se abordan temas relacionados con la teoría cuántica. Se comprobó que, en la asignatura de
Química General I, se abordan temas relacionados con el estudio de la teoría cuántica y la estructura
electrónica. Según el programa consultado, esto se aborda en dos conferencias y dos clases prácticas. Sin
embargo, al revisar el flujograma de Computación, se comprobó que esa asignatura no es impartida a los
estudiantes de la carrera. Las evidencias encontradas indican que esta asignatura se imparte a estudiantes de
Química.
B. Consulta a docentes
A continuación, se procedió a consultar con los docentes de la carrera de Computación. Se les pidió llenar
una encuesta. Los resultados fueron los siguientes:
1. Se les preguntó cuánto sabían o creían saber sobre el tema de la computación cuántica, un 11% de
los encuestados respondió que "sabía algo" y otro 12% dijo "saber poco" sobre el tema. Los demás
respondieron que sabían "muy poco" (19%), "casi nada" (23%) o "nada" (35%) [Anexos, Fig. 1].
2. También se les pregunto si sabrían definir con sus palabras, ¿qué es la computación cuántica? El
54% de los encuestados admitió que no sabría responder o simplemente, no respondió. Un 15% dio una
respuesta que no se correspondía con la pregunta. La sumatoria de estos dos grupos representan un porcentaje
de docentes (73%) que se aproxima bastante a los que en la primera pregunta admitió saber “nada”, “casi
nada” o “muy poco” sobre el tema (77%). El 27% dio una respuesta que podría catalogarse como
parcialmente correcta y solo un 4% brindó una respuesta que pueda considerarse acertada [Anexos, Fig. 2].
3. Se indagó con los docentes su opinión respecto a si consideraban que el actual currículo de
computación permitiría a sus graduados asumir los retos de un entorno laboral dominado por la computación
cuántica. Un 50% dijo que no sabría responder o simplemente omitió su respuesta. Un 42% opinó que los
graduados con el actual currículo no podrían desempeñarse en un entorno de trabajo con predominio de la
computación cuántica. Apenas un 8% de los encuestados consideró que el currículo actual brindaba
parcialmente a los graduados, competencias para desempeñarse en la tecnología cuántica de computación
[Anexos, Fig. 3].
4. Se les preguntó: ¿Considera que el currículo de la carrera debe ser mejorado, tomando en cuenta
que posiblemente, en el futuro próximo, deberán desempeñarse en un entorno donde predomine la
computación cuántica? Un 65% fue categórico al decir que “SI”, considera que el actual currículo debe ser
mejorado. En general, la mayoría sostiene que el currículo actual de la carrera no proporciona a los graduados
ninguna base en lo que respecta a la computación cuántica y que es importante para una mejora curricular,
se tome en cuenta esta y otras tendencias tecnológicas en computación. También opinaron que es necesario,
para que el mismo sea pertinente, asegurar que los futuros graduados tengan las competencias necesarias
para desempeñarse profesionalmente en un entorno de trabajo dominado por estas nuevas tecnologías
[Anexos, Fig. 4].
No obstante, el 19% de los encuestados opinó que no era necesario impulsar una mejora curricular que
introdujera cambios debido a la computación cuántica. Principalmente, argumentaron que esta nueva
tecnología todavía está en fase experimental en círculos de investigadores científicos. También que había
otros temas actuales que debían ser considerados. Un 12% de los encuestados prefirió no opinar o dijo no
saber del asunto. Un 4% propuso hacer un estudio sobre la pertinencia social de esos cambios.
5. Al preguntarle a los docentes sobre la mayor fortaleza y la mayor debilidad del actual currículo, se
obtuvo variadas respuestas. Destacan como fortaleza la disposición de los docentes a capacitarse y ser parte
activa de un proceso de cambio y mejora curricular. También resaltan que, en el contexto actual, el currículo
cubre los elementos básicos de las diferentes ramas en las cuales se espera sea competente todo profesional
de la computación. Además, destacaron la Ingeniería de Software y la Programación Orientada a Objetos
como las áreas donde la carrera es más fuerte.
En cuanto a las debilidades del currículo, señalan que su diseño es bastante inflexible, lo cual hace difícil
su adaptación ante el surgimiento de nuevas teorías y avances tecnológicos. Un buen número de docentes
coincide en que está desactualizado respecto a las nuevas tecnologías y paradigmas de la computación.
Consideran que las asignaturas relacionadas con el hardware de computadoras y redes merecen una

174
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

actualización inmediata. También hace falta introducir cambios que mejoren las competencias de los
egresados en la programación móvil y web, así como en el aprovechamiento de técnicas y herramientas,
como los entornos de desarrollo integrado (IDE, por sus siglas en inglés) para el diseño e implementación
de sistemas.
6. Se les preguntó su opinión respecto a lo que ellos (docentes) consideran debe hacer la institución
de cara a graduar profesionales de la computación competentes en un entorno de trabajo dominado por la
computación cuántica.
Un 46% de los encuestados opinó que el personal docente debe ser capacitado. El 31% de los docentes
opinó que es necesario fortalecer la relación de la Universidad con su entorno (empresa, sociedad, etc) y
determinar mediante un estudio la necesidad de tales cambios en el currículo. Actualizar el currículo,
incluyendo los temas necesarios sobre computación cuántica fue la opinión de sólo un 23% de los docentes.
Mientras que el 19% opinó que es necesario invertir en bibliografía actualizada, así como mejorar la
infraestructura de hardware y software para poder introducir la carrera a los temas de computación cuántica.
También se dieron opiniones respecto a introducir cursos libres sobre las nuevas tendencias tecnológicas
y otras actividades extracurriculares que amplíen los horizontes de docentes y estudiantes sobre estos temas.
Cabe destacar que el 27% de los encuestados no supo responder esta pregunta (o prefirió no hacerlo). Eso es
interesante, porque aproximadamente, uno de cada cuatro docentes no dio una respuesta (o no quiso
comprometerse dando una).
7. Se indagó con los docentes si en las asignaturas que tienen a cargo se aborda algún tema relacionado
con la computación cuántica. El 85% respondió de manera categórica que “NO” abordan esos temas en
clases. La mayoría argumentó que no lo contempla el currículo. Algunos confirmaron que tampoco podrían
abordarlo porque no saben del tema. Un 7.5% de los encuestados respondió que, aunque no está en el
programa de la asignatura, si lo han abordado en una sesión de seminario sobre tendencias futuras de las
arquitecturas de máquinas y de la programación gráfica. Otro 7.5% de los encuestados no respondió.
8. Al preguntarles si creían que ellos mismos necesitaban ser capacitados para poder contribuir a la
formación de un profesional de la computación competente en las nuevas tecnologías cuánticas, el 77%
respondió afirmativamente. Aproximadamente la mitad fueron muy lacónicos en sus respuestas (solamente
dijeron “SI”), pero los otros argumentaron que, si en un proceso de transformación curricular se introducen
esos cambios, no podrían ejercer su cátedra sin ser capacitados en los temas correspondientes de la
computación cuántica. Un 12% opinó “NO” es necesario por el momento. Algunos argumentaron que debido
a que se van a jubilar dentro de poco. Otros, opinaron que se debe esperar a que haya un mayor desarrollo
de la computación cuántica. Los demás encuestados omitieron su respuesta o dijeron no saber que responder.
9. Finalmente, se les preguntó si consideraban que, de cara al proceso de transformación curricular y
de acreditación de la carrera de Computación, había otros temas de importancia que deberían ser
incorporados en un nuevo currículo. El 69% de los encuestado respondió afirmativamente. Entre las
recomendaciones expresadas se destacan: el nuevo currículo debe estar acorde con la formación de
profesionales de computación en correspondencia con las necesidades del entorno laboral (nacional y
regional) e incentivar la investigación científica, el emprendimiento y la innovación; mejorar en temas
relacionados con ciberseguridad, inteligencia artificial, el Internet de las Cosas, computación paralela,
computación geoespacial, control automático, sistemas en tiempo real, almacenes de datos (datawarehouse),
programación de microcontroladores y robótica; incluir otras nuevas tendencias tecnológicas en
computación; incorporar temas de inteligencia de negocios así como normas y estándares relacionados con
las tecnologías de la información y profundizar en aspectos relacionados con la tecnología móvil,
programación web, comercio electrónico y marketing digital.
Existe una opinión bastante generalizada de que el currículo está sensiblemente desfasado respecto a las
tendencias modernas de la computación. El 19% de los encuestados prefirió omitir su respuesta y el resto
de los participantes (12%) respondió que no, expresando que primero debía hacerse un estudio que tuviera
en cuenta a los elementos involucrados en el mercado laboral de los futuros graduados en Computación.
C. Transformación curricular
Tomando en cuenta que existe un proceso de transformación curricular en marcha y un cronograma de
trabajo para implementar un plan de mejoras que permita acreditar [11], [25] a nivel centroamericano la
carrera de Computación, se entrevistó a funcionarios claves cuyo desempeño está directamente ligado a este
tema. Las respuestas obtenidas se resumen en lo siguiente:
1. El actual proceso de transformación curricular de Computación se inició en al año 2016. Se plantea
como un proceso continuo, que facilite la actualización oportuna del pensum académico de la carrera. Se
inició tomando en cuenta demandas de empresarios nacionales, sin que aparentemente, los ascensos de
nuevas tecnologías emergentes en computación tuviesen una incidencia directa para impulsar estos cambios.

175
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

2. Se indagó específicamente si los temas relacionados con la computación cuántica estaban siendo
considerados entre las mejores a implementarse, pero la respuesta fue negativa, ya que estos no son de
conocimiento general. Si se valoró la necesidad de actualización del currículo y de adaptación de las
competencias del graduado a las necesidades del mercado de trabajo local, con un nivel de competencia
nacional y regional (Centroamérica), de acuerdo con el perfil de egreso de Computación [35], áreas de
ejercicio profesional [2] y el Informe de Evaluación Curricular de la carrera [42].
3. Se ha considerado, a nivel de diseño curricular, la necesidad de revisión y ajuste del Modelo
Educativo Institucional (MEI) [33], la incorporación de prácticas profesionales y proyectos integradores, así
como la contextualización de contenidos, su mejora e integración en el perfil de egreso. De esta forma, se
prevé lograr una más clara integración de los saberes (proyecto integrador), un perfil de egreso más práctico,
basado en resultados de aprendizajes y una mejor vinculación de la academia con su entorno socio-
económico. Esto sin obviar la necesaria mejora de la infraestructura relacionada al desarrollo de los
programas de asignaturas.
4. Se espera que las mejoras curriculares implementadas mejoren la definición y posibilidad de
medición de las competencias profesionales de los graduados de Computación. También que sean capaces
de resolver problemas de su disciplina, tomar decisiones y trabajar en equipo. Se pretende graduar
profesionales competentes en el análisis y desarrollo de software, la gestión de redes de computadoras y
centros de datos, así como del soporte técnico de los equipos.
5. Entre los estándares internacionales que se están tomando en cuenta se mencionaron las pautas
curriculares de la Association for Computing Machinery (ACM) y la IEEE Computer Society [5], así como
la Agencia Centroamericana de Acreditación de programas de Arquitectura e Ingeniería (ACAAI) [11], [25].
Salvo una referencia en el diseño curricular [41] al Libro Blanco Título de Grado en Ingeniería Informática
publicado en el año 2004 por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA),
no se encontró más evidencia de haber incluido otros estándares.
6. En cuanto a la posible implementación de programas de educación continua para los graduados de
Computación antes de establecerse estas mejoras, no se cuenta con los mismos. Aunque de momento, se
desarrolla un programa de postgrado en Gerencia de TIC, no está vinculado con la transformación curricular.
No obstante, se manifiesta preocupación por asegurar la actualización de los docentes de la carrera.
7. El plan de mejoras que se está implantando en Computación por recomendación de los pares
evaluadores y de la agencia de acreditación involucrada, tampoco incluye posibles cambios a ser introducidos
desde la perspectiva del paradigma de la computación cuántica.
8. De momento, el proceso de transformación curricular no prevé incorporar a lo inmediato cambios
en el currículo que permita a los futuros graduados la adquisición de competencias para el desempeño en
entornos tecnológicos soportados por la computación cuántica.
D. Pautas curriculares
Finalmente, se revisaron las pautas curriculares de IEEE y ACM para programas de grado en Ingeniería
en Computación [5]. Se esperaba encontrar algunas recomendaciones que facilitaran la implementación de
mejoras curriculares tomando en cuenta la posibilidad de que, en uno o dos lustros, los profesionales de las
TIC podrían estarse desempeñando en un entorno de trabajo donde predomina la computación cuántica. No
obstante, solo se encontró una referencia a la misma. Específicamente, al recomendar que el currículo de
Ingeniería en Computación debe permitir la exploración de tecnologías emergentes aplicadas. Al brindar uno
de los ejemplos concretos, plantea que "los ingenieros en computación ya están o estarán interactuando con
computadoras ópticas, biológicas o cuánticas o diseñarán un sistema robótico de nueva era para la
manufacturación". No se vuelve a tocar el tema en el resto del documento. Aunque señala:
“Los Ingenieros en Computación deben ser conscientes de las tecnologías emergentes aplicadas. Estas
tecnologías ya existen en el mercado, pero son lo suficientemente nuevas como para que su influencia en la
sociedad no sea del todo conocida. Los estudiantes deben poder identificar algunas tecnologías emergentes
aplicadas e indicar sus efectos en la ingeniería informática. La identificación y los efectos de las tecnologías
emergentes aplicadas en la ingeniería informática son útiles para producir un ingeniero competente que pueda
contribuir a la profesión en un mundo cambiante”.
IV. CONCLUSIONES Y RECOMENDACIONES
A. Conclusiones
El presente trabajo de investigación exploratorio desarrollado en Ingeniería en Computación, ha
permitido llegar a una conclusión: la institución no está preparada en este momento para la introducción de
cambios significativos en el currículo de esta carrera, de manera que se preserven su pertinencia y las
competencias de sus futuros graduados ante el ascenso de la computación cuántica.

176
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Entre docentes, funcionarios claves y autoridades de la carrera de Computación existe un alto grado de
desconocimiento sobre temas relacionados con tecnologías emergentes como la computación cuántica.
También se percibe entre ellos una creencia soportada, al parecer, por su intuición y experiencia (no
justifican), de que este es un tema que no amerita atención inmediata y que probablemente deberá atenderse
a muy largo plazo. Además, hay argumentos en el sentido de que debido al rezago tecnológico del país y la
región (centroamericana), no amerita preocuparse por los cambios que la computación cuántica podría
generar en el corto plazo.
El currículo de la carrera de Computación no contribuye a graduar profesionales competentes para
enfrentar el reto de una nueva tecnología emergente aplicada, como la computación cuántica. El actual
proceso de transformación curricular y de acreditación de la carrera no contempla hacer cambios que tomen
en cuenta la necesidad de graduar profesionales competentes en entornos de trabajo dominados por la
computación cuántica. Tampoco prevé la preparación de cursos de postgrado que les permita subsanar esa
limitación de los programas y planes de estudios de la carrera.
Los mismos docentes de computación carecen de las competencias necesarias para desempeñarse en un
entorno de computación cuántica. De modo que no están preparados para asumir un cambio curricular que
permita adaptar el currículo a ese nuevo paradigma. Además, no hay evidencias que indiquen la posible
implantación en el corto, mediano o largo plazo de programas de capacitación de los docentes en
computación cuántica ni otras tecnologías emergentes aplicadas.
Los hallazgos del presente trabajo, así como una revisión preliminar de los programas de asignaturas en
otras carreras impartidas en la Universidad, permite extrapolar la hipótesis de que una situación similar a la
de Computación podría darse en carreras como Sistemas, Electrónica y Telecomunicaciones.
B. Recomendaciones
Por lo antes expuesto, se recomienda:
1- Implantar entre estudiantes, docentes, funcionarios claves y autoridades de toda la Universidad, un
plan de difusión actualizado, a nivel informativo, sobre las nuevas tendencias tecnológicas de la
computación, particularmente, la computación cuántica.
2- Diseñar, promover e implantar un plan de capacitación de los docentes de la carrera de Computación
en temas de tecnologías emergentes aplicadas, de manera que puedan hacer frente a retos como el planteado
por la computación cuántica. Probablemente sea conveniente hacer extensiva esta capacitación a docentes
de las carreras de Electrónica, Telecomunicaciones y Sistemas. También podría hacerse extensiva como un
postgrado para egresados de años anteriores.
3- Incorporar en el actual proceso de transformación curricular, cambios en las asignaturas de Física,
para que se incluyan temas introductorios relacionados con física cuántica. También se propone agregar
temas relacionados con la computación cuántica a nivel informativo y hasta introductorio en las asignaturas
que abordan el estado del arte de las nuevas tendencias tecnológicas en computación.
4- Agregar al pensum de la carrera una asignatura que facilite, en una primera etapa de actualización
curricular, la introducción a la computación cuántica. También es recomendable incorporar una asignatura
de introducción a la programación cuántica.
5- Profundizar la presente investigación a un nivel más allá del indagatorio, de manera que se puedan
determinar otros aspectos que deben tomarse en cuenta para asegurar en el mediano y largo plazo la
pertinencia del currículo de Computación y sus graduados.
6- Ampliar la investigación iniciada en Computación sobre este tema a las carreras de Sistemas,
Electrónica y Telecomunicaciones.
C. Trabajo futuro
Además de seguir las recomendaciones 5 y 6 en la sub-sección anterior, el trabajo futuro podría enfocarse
hacia el estudio y análisis del estado del arte de la computación cuántica con relación al currículo de carreras
similares en otras universidades del país y de nuestro sub-continente.

V. REFERENCIAS BIBLIOGRÁFICAS
[1] Aichelburg, Peter C. & Sexl, Roman Ulrich. & Bergmann, Peter Gabriel. & International Society on General Relativity and
Gravitation. (1979). Albert Einstein : his influence on physics, philosophy and politics. Braunschweig ; Wiesbaden : Vieweg
[2] "Áreas de ejercicio profesional", Facultad de Electrotecnia y Computación, Junio 2019. [En línea]. Disponible en:
[Link] [Accedido: 05-may-2019].
[3] C. Williams, Explorations in Quantum Computing (SpringerVerlag, London, 2011).

177
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[4] Caicedo-Ortiz, H.E., Perez-Merchancano, S.T., Santiago-Cortés, E., "Modelando un punto cuántico: una aproximación
pedagógica", Revista Mexicana de Física, 61 (Enero-Junio), 2015. [En línea]. Disponible es:
[Link] [Accedido: 05-jun-2019]
[5] "Curriculum Guidelines for Undergraduate Degree Programs in Computer Engineering", ACM, Diciembre 2016. [En línea].
Disponible en: [Link] [Accedido: 05-jun-2019].
[6] D. Wecker and K. Svore. LIQUi|i: A software design architecture and domain-speci?c language for quantum computing.
arXiv:1402.4467, 2014.
[7] Dalhousie University - Department of Mathematics and Statistics, "The Quipper Language", Julio 2016. [En línea]. Disponible
en: [Link] [Accedido: 04-jun-2019].
[8] Feynman, R. P. 1982 Int. J. theor. Phys. 21, 467.
[9] Francisco Gálvez Ramírez, "Quantum Computing", Universidad Carlos III - t3chfest 2017, Febrero 2017. [En línea]. Disponible
en: [Link] [Accedido: 04-jun-2019].
[10] Google AI Blog - The latest news from Google AI, "A Preview of Bristlecone, Google’s New Quantum Processor", 2019. [En
línea]. Disponible en: [Link] [Accedido: 03-jul-2019].
[11] "Guía de Autoevaluación", Agencia Centroamericana de Acreditación de programas de Arquitectura e Ingeniería – ACAAI:
Panamá, Diciembre 2012. [En línea]. Disponible en:
[Link] [Accedido: 05-jun-2019].
[12] Hynek Mlnarík, “Introduction to LanQ – an Imperative Quantum Programming Language”, Julio 2006. [En línea]. Disponible
en: [Link] [Accedido: 04-jun-2019].
[13] IBM, "IBM Q: Quantum starts here", 2019. [En línea]. Disponible en: [Link] [Accedido: 04-
jun-2019].
[14] "IBM 5 in 5 - Changing the Way the World Works: IBM Research’s 5 in 5", IBM Research Blog, Marzo 2018. [En línea].
Disponible en: [Link] [Accedido: 05-jun-2019].
[15] "IBM presenta el primer ordenador cuántico comercial. La compañía cree que este es el primer paso para el despegue de esta
tecnología más allá de los laboratorios", El País, España, Enero 2019. [En línea]. Disponible en:
[Link] [Accedido: 04-jun-2019].
[16] "IBM Unveils World's First Integrated Quantum Computing System for Commercial Use", IBM News Room, Enero 2019. [En
línea]. Disponible en: [Link]
System-for-Commercial-Use. [Accedido: 05-jun-2019]
[17] J. I. Íñiguez de la Torre Bayo, "Sesquicentenario de las Ecuaciones de Maxwell", Universidad de Salamanca, Septiembre 2015.
[En línea]. Disponible en:
[Link] [Accedido: 04-
jun-2019].
[18] John A. Smolin Jay M. Gambetta Andrew W. Cross, Lev S. Bishop. Open quantum assembly language, July 2017. URL
[Link]
[19] Klein, M. J. (1961). Max Planck and the beginnings of the quantum theory. Archive for History of Exact Sciences, 1(5), 459–
479. doi:10.1007/bf00327765
[20] Klein, M., Einstein and the wave-particle duality, The natural philosopher 3, 182-202 (1963).
[21] Krista M. Svore et al. “Q#: Enabling scalable quantum computing and development with a high-level domain-speci?c language”.
Quantum Architectures and Computation Group, Microsoft Research, Redmond, WA 98052, United States. arXiv:1803.00652v1
[quant-ph] 1 Mar 2018.
[22] Krysta Svore, "Krysta Svore on Quantum Computing", Microsoft Research, Octubre 2014. [En línea]. Disponible en:
[Link] [Accedido: 04-jun-2019].
[23] L. De la Peña. INTRODUCCIÓN A LA MECÁNICA CUÁNTICA. México D.F., México: Ediciones Científicas Universitarias.
Serie Texto Científico Universitario. Universidad Nacional Autónoma de México, 2014.
[24] [Link], [Link], “Quantum Computation and Quantum Information”, Cambridge University Press, New York, NY,
2010.
[25] "Manual de Acreditación", Agencia Centroamericana de Acreditación de programas de Arquitectura e Ingeniería – ACAAI:
Panamá, Diciembre 2012. [En línea]. Disponible en:
[Link] [Accedido: 05-jun-2019]
[26] María Vallet Regí, Octubre 2018. "Aplicaciones de la nanotecnología". Real Academia Nacional de Farmacia, Octubre de 2018.
[En línea]. Disponible en: [Link] [Accedido: 28-may-2019].
[27] Matthias F. Brandl, "A Quantum von Neumann Architecture for Large-Scale Quantum Computing". November 2017. Institut
f¨ur Experimentalphysik, Universit¨at Innsbruck, Technikerstraße 25, A-6020 Innsbruck, Austria.
[28] Max Planck, "Max Plank Nobel Lecture", The Nobel Prize, Junio 1920. [En línea]. Disponible en:
[Link] [Accedido: 04-jun-2019].
[29] Microsoft Corporation, "LIQUi|>:The Language Integrated Quantum Operations Simulator", 2019. [En línea]. Disponible en:
[Link] [Accedido: 04-jun-2019].
[30] Microsoft Developer, “Empowering the quantum revolution with Q#: Build 2018”, Mayo 2018. [En línea]. Disponible en:
[Link] [Accedido: 04-
jun-2019].
[31] "Microsoft lanza Q#, su nuevo lenguaje de programación para la computación cuántica", GENBETA, Diciembre 2017. [En
línea]. Disponible en: [Link]
computacion-cuantica. [Accedido: 04-jun-2019].
[32] “MINIATURIZACIÓN: La carrera por hacer el chip más pequeño del mundo”, El País, España, Abril 2017. [En línea].
Disponible en: [Link] [Accedido: 05-jun-2019].
[33] "Modelo Educativo Institucional", Universidad Nacional de Ingeniería, 2009. [En línea]. Disponible en:
[Link] [Accedido: 05-may-2019].
[34] Newton, Isaac. Philosophiae naturalis principia mathematica.

178
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[35] "Perfil de Egreso", Facultad de Electrotecnia y Computación, Junio 2019. [En línea]. Disponible en:
[Link] [Accedido: 05-may-2019].
[36] Qiskit, "Qiskit: An open-source quantum computing framework for leveraging today's quantum processors in research,
education, and business", 2019. [En línea]. Disponible en: [Link] [Accedido: 04-jun-2019].
[37] Stephen Hawking, "EL EXPERIMENTO DE LA DOBLE RENDIJA POR STEPHEN HAWKING". 19-sept-2017. [Video].
Disponible en: [Link] [Accedido: 04-jun-2019].
[38] S. Hawking, L. Mlodinow. The Grand Design. New York, NY, USA: Bantam Books, 2010
[39] T. Calarco S. Bettelli, L. Serafini. Toward an architecture for quantum programming, March 2001. URL arXiv:cs/0103009v3.
[40] Universidad Nacional de Ingeniería, "Compendio de Planes Analíticos de Asignaturas de Ingeniería en Computación", Archivo
de la Coordinación de Transformación Curricular de Computación, Facultad de Electrotecnia y Computación, Universidad
Nacional de Ingeniería, Managua, Nicaragua. (3-feb-2016).
[41] Zepeda Palacios, Humberto. et al., "Diseño curricular de la carrera en Ingeniería en Computación Mejorado y actualizado en
2015", Archivo de la Coordinación de Transformación Curricular de Computación, Facultad de Electrotecnia y Computación,
Universidad Nacional de Ingeniería, Managua, Nicaragua. (3-feb-2016).
[42] Zepeda Palacios, Humberto. et al., "INFORME DE EVALUACIÓN CURRICULAR DE LA CARRERA DE INGENIERÍA EN
COMPUTACIÓN DE LA UNI", Archivo de la Coordinación de Transformación Curricular de Computación, Facultad de
Electrotecnia y Computación, Universidad Nacional de Ingeniería, Managua, Nicaragua. (29-ago-2017).

VI. BIOGRAFÍAS
Narciso Javier Aguilera Centeno nació en Managua, Nicaragua, el 11 de febrero de 1967. Graduado en Cibernética – Matemática
por la Universidad de La Habana. Maestro en Sistemas, Planeación e Informática por la Universidad Iberoamericana, Plantel Laguna
(Torreón, Coahuila, México). Actualmente trabaja en una tesis de doctorado a presentar en la Universidad de Valladolid, España.
Además de docente universitario, su experiencia laboral ha incluido instituciones del sector público y privado, donde ha ocupado
puestos de analista de sistemas, programador y cargos de dirección en las áreas de sistemas, planificación e informática.
Desde octubre de 1992 labora como docente en la carrera de Ingeniería en Computación de la Facultad de Electrotecnia y Computación
de la Universidad Nacional de Ingeniería, en Managua, Nicaragua, donde actualmente es Profesor Titular.

179
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VII. ANEXOS

180
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

181
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

Valu-Sol Consumidor.
Asistente Informático para Eficiencia en Consumo de Electricidad

Valu-Sol Consumer.
Assistant for Electricity Consumption Efficiency.

Alden José Jirón Zavala;


Universidad Tecnológica La Salle (ULSA)
León, Nicaragua
Email: [Link]@[Link]

Christopher David Manzanares Tórrez


Universidad Tecnológica La Salle (ULSA)
León, Nicaragua
Email: [Link]@[Link]

Marco Vinicio Sandino Castillo


Universidad Tecnológica La Salle (ULSA)
León, Nicaragua
Email: [Link]@[Link];

Resumen – El consumo domiciliar y empresarial de electricidad resulta muy importante en las economías
domésticas. Normalmente, los Gobiernos y entidades responsables del sector energía invierten recursos
significativos en fomentar el ahorro en el consumo y la eficiencia en el uso de la energía eléctrica. En Nicaragua
el consumo domiciliar tiene un límite básico de subsidio el cual debe desaparecer para el año 2022 y los sectores
productivos pagan la electricidad más cara de la región centroamericana. Producir más electricidad y que sea
barata no es ya una meta global, la tendencia mundial es promover más la autogeneración, el control efectivo
del consumo y la adquisición de aparatos eléctricos más eficientes. La barrera aquí es la información: Pocos
conocen cómo se calcula su factura de electricidad; otros desconocen su propio patrón de consumo y cómo cada
aparato eléctrico en casa aporta al gasto de electricidad; y luego hay un tercer elemento que es la mucha
información comercial sobre bondades y eficiencias de los aparatos a la venta, pero no es fácil hacer
comparaciones efectivas entre ellas, en esto al consumidor le surge una sola pregunta ¿Se ahorra o se gasta con
este dispositivo? Ante estos retos Valu-Sol Consumidor surge como una herramienta simple, diseñada para uso
masivo, que busca cubrir todos estos vacíos de información y asistir a las personas que desean controlar su
consumo eléctrico.
Palabras Clave: Consumo de Electricidad, Facturación, Eficiencia Energética, Nicaragua
Abstract – Electricity consumption at homes and small business level is very important in local economies.
Normally, the governments and entities responsible for the energy sector invest significant resources to attain
savings in electricity´s consumption and efficient use. In Nicaragua, home consumption has a subsidy with a base
limit, which should disappear by 2022, also, the productive sectors pay the most expensive electricity in the
Central American region. Producing more electricity and making it cheaper is no longer a global goal, the world
trend is to promote more self-generation, a consumption´s effective control, and the acquisition of more efficient
electrical appliances. The barrier here is information: Few know how their electricity bill is calculated; others
are unaware of their own consumption patterns, and how each electrical appliance at home contributes to the
electricity´s expenditure; and there is a third element that is a lot of commercial information about benefits and
efficiencies of devices on sale, but for ordinary people is not easy to make effective comparisons between them,
the consumer has only one question: Am I saving or spending with this device? Facing these challenges, Valu-
Sol Consumer emerges as a simple tool, designed for massive use, which seeks to cover all these information gaps
and assist people who wish to control their electricity consumption.
Key Words: Electricity consumption, Billing, Energy Efficiency, Nicaragua

182
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

[Link]ÓN
Hasta 2018, la situación de los
consumidores de electricidad en Nicaragua
no era muy diferente de sus pares
centroamericanos. En un documento sobre la
situación de acceso a la electricidad en la
región de Las Segovias [1], norte de
Nicaragua, se describe mucho de la situación
y condiciones que rodean el problema de los
consumidores. Obviamente, la crisis
sociopolítica que emergió en el 2018 cambió
algunos factores, trayendo consigo el efecto
de resaltar más el problema de adquirir una
energía cara y utilizarla ineficientemente. La
electricidad alcanza a casi todos los hogares
urbanos y es superior a un 92% en los
hogares rurales, a excepción de la Costa
Atlántica donde lo vasto del territorio y la Gráfico 1. Tarifas Residenciales en Centroamérica (<150
menor densidad poblacional hacen que el kWh). Fuente: Consejo Nacional de Energía de El Salvador.
modelo de tendido y conexión tenga costos
muy altos. Las pérdidas en la distribución de energía han permanecido en los últimos años entre un 20 – 25% de la
generación entregada a la red nacional. Las pérdidas en red, que normalmente son aceptables hasta un 8%
internacionalmente, son cubiertas por el lado del Gobierno, pero ello implica menores recursos de inversión en otros
sectores. La generación con fuentes fósiles sigue estando arriba de la mitad de la capacidad instalada, en términos
efectivos la generación fósil llega a rondar el 60% del aporte anual, lo cual si se vincula a los precios del petróleo y
derivados de los últimos años, explica por qué se está pagando las tarifas más altas de Centroamérica [2].
La información disponible
también refleja que para el año 2016 el sector
residencial consumía el 35% de la energía
generada, mientras que le seguían el sector
industrial con 24% y el sector comercial con
23%. La energía restante se consumía en
bombeo de agua, labores agrícolas, riego,
iluminación pública y en el sector turismo.
Para el mismo año se estimó que habían más
de un millón de clientes domiciliares y casi
60 mil clientes comerciales, entre ambos se
concentra el 98.9% de la facturación. La
política de cobro en Nicaragua es “quien
gasta más paga más”, la cual difiere de las
políticas vigentes en El Salvador y
Guatemala donde a un mayor consumo hay Gráfico 2. Tarifas Comerciales en Centroamérica (<1,000
un decrecimiento marginal del cobro. En kWh). Fuente: Consejo Nacional de Energía de El Salvador.
Nicaragua la política se aplica con fines de
poder enfrentar el subsidio existente que tiene como límite general los 150 kWh por mes, hay otros elementos asociados
al subsidio en términos de categorías, pero a efectos de análisis general con la definición del límite anterior es suficiente.
Los subsidios terminan en el 2022, luego de que el Gobierno asumiera el compromiso a la firma de un crédito con el
Banco Interamericano de Desarrollo (BID) en el 2017.
En vista de lo anterior, en el año 2017, la Universidad Tecnológica La Salle (ULSA) aplicó ante la iniciativa
de la Agencia Internacional para el Desarrollo del Gobierno de los Estados Unidos de América (USAID), denominada
Clean Energies Funding Facility for the Caribbean and Central America (CEFF-CAA) para acceder a fondos que
permitieran desarrollar una aplicación informática que facilitara el fomento de proyectos de energías renovables y la
eficiencia energética. El Proyecto Valu-Sol (FAA Grant 18-009-5-023) inicialmente no distinguía componentes. Fue
conceptualizado para ser una herramienta de diagnóstico técnico, social y económico para sistemas que trabajaran con
energía solar, hídrica, eólica o biogás. Terminada su primera versión, patrocinada por USAID, la universidad se
encontró en una posición donde se visualizaba un alto potencial para la aplicación informática, pero se requería de más
trabajo de desarrollo y dividir sus alcances. En esta división surge Valu-Sol Tecnologías y Valu-Sol Consumidor.
Donde cada versión de la aplicación se concentra en objetivos distintos, pero complementarios. La versión tecnológica
mantiene su objetivo de herramienta de diagnóstico, mientras que la versión de consumidores busca ayudar a los
usuarios del servicio a entender mejor su consumo, modelarlo y realizar ajustes de acuerdo a sus necesidades y
capacidades. Ambas versiones se estiman gratuitas, sin embargo, las mismas deben ser patrocinadas para poder alcanzar
su mayor potencial.

[Link]ÓN DEL DESARROLLO DE LA APLICACIÓN


Valu-Sol Consumidor surge de la necesidad de atender a un segmento de consumidores cuyas necesidades
divergen de las necesidades de los usuarios de Valu-Sol Tecnologías. En su enfoque de origen la herramienta estaba
orientada a diagnosticar y reunir información para el diseño de sistemas de generación con distintas fuentes de energía.
La parte del consumidor era realmente transversal a las tecnologías y el análisis del consumo era dirigido hacia la carga
2

183
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

o demanda a ser satisfecha, es decir, se partía del hecho de estar desconectado y se estimaba cuanto podría llegar a
consumir para luego definir el tamaño del sistema de generación a ser propuesto. Dado que los esfuerzos de
electrificación están reduciendo significativamente la población de desconectados, y hay problemas asociados a calidad
y eficiencia en el consumo en red, entonces estas situaciones ayudaron a tomar la decisión de diseñar y desarrollar una
herramienta que asistiese a los consumidores en el autodiagnóstico, en el monitoreo y seguimiento de sus hábitos de
consumo de electricidad, y la evaluación de alternativas para reducir su consumo e incrementar su eficiencia de uso.
La aplicación Valu-Sol Consumidor entonces se diseña para que sea fácil de usar, esté en distintas plataformas (web,
PC, móviles) y pueda ser usada de manera masiva y gratuita.

[Link] PARA EL DESARROLLO


A. Objetivo General:
Estructurar una herramienta informática que permita valorar el consumo de electricidad de una propiedad a
partir de datos obtenidos de la factura oficial correspondiente, auxiliando al usuario en organizar sus equipos eléctricos
en términos de frecuencia de uso y datos de consumo obtenidos del fabricante. La herramienta debe asistir al usuario
en identificar niveles de desempeño en el consumo de sus aparatos, la posibilidad de reemplazo de aquellos ineficientes
y la viabilidad financiera de realizarlo. Es también una finalidad que la herramienta sea multiplataforma y amigable en
su interacción con usuarios de distintos niveles de formación educativa.
B. Objetivos Específicos:
• Realizar cálculos sobre valor de facturación de acuerdo a las características de usuario y la clasificación oficial
correspondiente (Tarifas).
• Ingresar y registrar los dispositivos y aparatos eléctricos presentes en la propiedad del usuario, los cuales en
conjunto realizan el consumo de electricidad que está reflejado en la factura correspondiente.
• Asistir en el análisis comparativo de consumo entre equipos presentes en la propiedad del usuario y equipos que
podrían ser un reemplazo efectivo de los mismos. Este análisis comparativo debe incluir aspectos técnicos y
financieros asociados al consumo.
• Operar en la web para usuarios que deseen hacer consultas en línea.
• Ser instalada en computadoras personales (PC, Laptops) a fin de que se pueda hacer un registro y análisis
prolongado en términos de tiempo y complejidad.
• Facilitar la disponibilidad en dispositivos móviles para efectos de levantamiento de datos y el análisis rápido de
aspectos correspondientes al consumo y su medición rápida.
• Brindar un ambiente de trabajo con el usuario que facilite y agilice la interacción a nivel de consulta, ingreso de
datos y generación de reportes para efectos de seguimiento ulterior e histórico.

[Link] Y RESTRICCIONES
La población objetivo son los usuarios del servicio de electricidad conectados a la red nacional, sin embargo,
sus características están diseñadas para atender a los sectores domiciliar y comercial, es factible atender al sector
industrial, pero a nivel de micro, pequeña y mediana empresa (Mipyme). La restricción existente es referente a la
disponibilidad de información de los dispositivos eléctricos que utilizan en cada sector. En términos generales las
principales restricciones, en términos de atención al usuario, son las siguientes:
A. Precisión en los montos facturados.
El programa usa un algoritmo que sitúa el consumo de electricidad en una situación equidistante en el tiempo. Es decir,
cuando la factura está situada en un período de duración menor a 31 días y localizado entre dos meses contiguos, el
programa no tiene elementos que le permitan determinan cuánta electricidad se consumió en el primer mes y cuanto,
en el segundo, tampoco las facturas indican esta distribución. Las facturas generalmente sólo indican el periodo de
consumo y el monto consumido en kWh. En la medida que el período no se sitúa cerca del inicio/fin de un mes, en esa
misma medida se pierde precisión en el cálculo automático del valor consumido.
B. Características particulares de la carga eléctrica de
consumo y su distribución.
Aunque el programa permite que se levante el inventario
de cada dispositivo eléctrico en uso, se ingresen las
especificaciones principales de cada aparato, y se le solicita
al usuario ingresar el estimado de uso en relación al tiempo;
lo cierto es que ni llevando un registro detallado del uso se
podría alcanzar el valor exacto del consumo en kWh. Hay
muchas variables que intervienen y que tendrían que ser
determinadas en laboratorio como el consumo real de los
dispositivos en reposo o en uso variable; también con
aquellos equipos que tienen variabilidad de trabajo como
son los equipos de refrigeración y aire acondicionado. En
este aspecto el programa adopta como punto de referencia
el monto reportado en la facturación y le corresponde al
usuario determinar vía prueba y error un estimado de
comportamiento de uso de los equipos, para luego validar
si el monto aproximado concuerda con la lógica de uso de
los dispositivos conocida por el propietario.
Gráfico 3. Página Inicial de Valu-Sol
Consumidor
3

184
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

C. Bases de datos e información sobre la oferta de dispositivos eléctricos para fines de evaluación y comparación.
El programa requiere disponer de una extensa base de datos de los dispositivos disponibles en el mercado nacional a
efectos de poder proceder a realizar los análisis comparativos de desempeño y evaluar la posibilidad de sustitución de
equipos ineficientes por otros más eficientes.
D. Limitantes en las bases de datos históricas de dispositivos.
Es ideal que las bases de datos tengan suficiente profundidad histórica, al menos de unos cinco años, sin embargo, hay
aparatos eléctricos que pueden tener una antigüedad de fabricación y operación mayor a cinco años. Esto conduce a
descartar la posibilidad de hacer una comparación precisa y de hacer una valoración financiera real. Se tendría que
recurrir a herramientas de laboratorio para determinar el desempeño real y efectivo de los equipos viejos. Valu-Sol no
está diseñado para evaluar de manera precisa equipos muy viejos y/u obsoletos.
V. ORGANIZACIÓN GENERAL DE LA APLICACIÓN
El uso de la aplicación es bastante intuitivo, en el gráfico 3 (arriba) se puede observar que el menú de inicio
es bastante simple y se organiza de la siguiente manera:
A. Consulta Factura.
Este módulo permite que el consumidor ingrese los datos de su factura para su estimación. Los datos solicitados son:
Tarifa en la que se clasifica, Municipio y Departamento en que está localizada la propiedad en que está siendo obtenido
el servicio, finalmente el período de facturación aplicado (fecha inicio, fecha final). Es importante destacar que como
esta aplicación no está conectada a la empresa facturadora, condiciones especiales de facturación (cargos por mora,
reconexión, etc.) están fuera de cálculo.
B. Consulta Consumo.
Facilita al consumidor el análisis de su consumo partiendo de una categorización de la actividad económica. El
programa contempla tres tipos básicos que son hogares, negocios y la combinación de ambos. Luego de la página inicial
se procede a ingresar lo que se denomina un inventario de equipos y su consumo lo que resulta en un censo de carga.
Para cada equipo que se incluye debe detallarse aspectos técnicos del mismo y el uso estimado en tiempo, para
diferentes períodos. El programa asiste al consumidor en esta parte definiendo períodos cortos (por día o semana), que
son más fáciles de recordar y luego extrapola el cálculo para el número de días que se consulta. Las consultas no pueden
ser superiores a la duración de un mes calendario, ya que este parámetro es el utilizado para facturación.
C. Consulta de Equipos.
Con este módulo el propietario puede hacer distintas comparaciones entre equipos, a fin de determinar los consumos
promedio estimados para cada uno, para grupos y para combinaciones. Las variantes de análisis que puede realizar son
las siguientes:
• Vis a Vis. Es una comparación entre pares. El consumidor puede comparar entre el aparato o dispositivo que
tiene y lo compara contra otro aparato similar o equivalente. Como ejemplo, un televisor marca A puede ser
comparado contra otra marca B, siempre y cuando tengan características básicas equivalentes (tamaño,
tecnología).
• Lote Actual vs Lote Alternativo. En esta comparación un grupo de equipos similares es comparado contra
otro grupo suministrado por la base de datos del programa. Por ejemplo, se tiene un lote de computadoras
distintas (laptops, escritorio, impresoras) con características ya guardadas en el programa o ingresadas por el
usuario. Este grupo base (A) puede ser comparado contra otro extraído de la base de datos de equipos del
programa (B), el cual debe corresponder siempre en número de equipos, clasificación, dimensión y
tecnología. Los resultados resultarían erróneos si no se mantiene la integridad de composición entre ambos
grupos (A, B).
• Comparación por Carga. En esta variante lo que se está validando es consumo. Es similar al anterior en el
aspecto de que pueden darse configuraciones diversas a lo interno del grupo base (A), sin embargo, en esta
comparación es aceptable buscar dentro de la base de datos del programa el configurar un grupo B que sea
más eficiente en el consumo energético. El programa busca y sugiere los equipos más eficientes, sin importar
las características propias de cada aparato.
• Comparación por Demanda. Esta variante difiere del resto porque aquí se determina primero la unidad de
medida o análisis base de comparación. Dependiendo del trabajo que realice el aparato o equipo así será la
base de comparación. Por ejemplo, si lo que se busca es generación de frío, primero se define que la base de
comparación será en BTU u otra unidad térmica equivalente. Por lo tanto, si el grupo A tiene un número X
de equipos que generan una cantidad Y de BTU, el programa buscará la combinación de aparatos generadores
de frío (grupo B) que cubran la demanda de frío, aunque su configuración y número sea distinto de los
presentados en el grupo A. El programa siempre buscará la eficiencia energética más alta en base a las
unidades de frío demandadas.
D. Consulta Ahorros.
Cuando el consumidor busca la sustitución de un equipo que estima es ineficiente, o simplemente desea sustituirlo,
entonces el programa le ayuda a visualizar rápidamente los efectos financieros de hacer esa decisión. La comparación
puede ser de dos tipos Actual versus Nuevo, y Nuevo versus Nuevo. Los datos solicitados al usuario son: Selección del
aparato o su ingreso a la base de datos, valor de rescate del mismo si está en uso, en caso de omitirlo asume valor
CERO, estimado de consumo mensual (casos refrigeradores), precio oficial de la energía, número de días que desea
comparar y horas por día de uso del dispositivo. El programa permite que, si el usuario selecciona un aparato en la base
existente, los datos son incluidos automáticamente, de lo contrario tienen que ser ingresados manualmente. Del ejercicio
se obtienen tablas y gráficos que muestran los resultados.

185
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

E. Visualizar Análisis.
Dado que el consumidor puede realizar distintos tipos de análisis, en fechas diferentes y con variantes propias, el
programa le permite organizar y guardar todos sus análisis, creando una librería de ellos. En este módulo pueden
consultarse los análisis, imprimirse y exportarse a formatos CSV y Excel. Esta funcionalidad sólo estaría disponible
para aquellos consumidores que tengan instalado el programa en sus computadoras particulares. La versión web del
programa no almacenará los análisis luego de cerrada la sesión de consulta. La versión móvil para teléfonos celulares
podría incluirla, pero su manejo en el dispositivo sería algo más restringido, únicamente a lectura de los reportes
realizados.
F. Configurar.
Este módulo permite realizar algunas acciones que hacen más amistosa la interacción con la aplicación. La
configuración permite afectar o modificar lo siguiente:
• Categorías. Los equipos y aparatos se clasifican de acuerdo a categorías de uso como es refrigeración,
iluminación, equipos de oficina, electrodomésticos, entre otros. De acuerdo a la particularidad del usuario, el
mismo puede crear categorías que pueden resultarle más convenientes para organizar y analizar sus
dispositivos.
• Tipos de Equipos. Dentro de cada categoría hay distintos tipos de aparatos, por ejemplo, en la categoría de
electrodomésticos hay lavadoras, planchas, licuadoras, hornos eléctricos, etc. La tipología de aparatos se
puede modificar para facilitar los análisis en forma más detallada.
• Marcas. Para el seguimiento de los aparatos es importante tener como medio de clasificación la marca del
fabricante, esto es muy importante para que los motores de búsqueda trabajen más eficientemente.
• Idioma. El programa está diseñado para trabajar en una base multi idioma, sin embargo, actualmente sólo
tiene integrados el español y el inglés como idiomas de trabajo.
G. Equipos.
Este módulo permite manejar la base de datos de los equipos que sirven para hacer referencia y/o comparación al
equipo. La base de datos puede ser alimentada manualmente, para ello es que se ingresa en este módulo y se puede
administrar eficientemente la información sobre los dispositivos.
H. Sincronizar.
Este módulo facilita la actualización del programa al permitir el enlazarse directamente a los servidores de ULSA. Debe
aclararse aquí que para la instalación y mantenimiento del programa el usuario deberá llenar una forma de registro,
luego de la cual obtendrá el acceso para descargar el programa, instalarlo y darle mantenimiento mediante la
sincronización de archivos.
Todos los resultados obtenidos en las consultas pueden ser transferidos a reportes específicos. Estos reportes
pueden ser configurables y ajustables para su ejecución semi automática en períodos determinados.

[Link] DE LA APLICACIÓN
Valu-Sol Consumidor es una aplicación diseñada para el usuario que necesita administrar de manera eficiente
su consumo de electricidad. Esta aplicación le permitirá verificar las facturas recibidas, realizar consultas de consumo,
comparar equipos y hacer estimaciones de ahorro de energía. El sistema le permitirá ir guardando los análisis de
consumo en su computadora, para poderlos visualizar rápidamente mediante informes o desde la aplicación. También
podrá estimar cuales de sus equipos están consumiendo más energía y de esa manera procurar optimizar el consumo de
energía. El producto está diseñado para trabajar en entornos web, escritorio y móvil, lo que permitirá su utilización de
forma rápida y eficaz, además se integraran entre sí.
Tabla 1. Tecnologías aplicadas
Herramienta Descripción Fuente de Descarga
Es un lenguaje de programación orientado a objetos
C# desarrollado y estandarizado por Microsoft como [Link]
parte de su plataforma .NET.
Laravel Es uno de los frameworks de código abierto más
[Link]
Framework fáciles de asimilar para PHP.
Es una herramienta para el desarrollo de
Xamarin [Link]
aplicaciones móviles
Sistema de gestión de base de datos relacional
MySql RDBMS de código abierto basado en lenguaje de [Link]
consulta estructurado SQL.
Es un gestor de base de datos no precisa
SQLite [Link]
configuración.
La aplicación de escritorio solamente requiere conectarse mediante internet al servidor web de Valu-Sol, una
vez al mes para descargar los pliegos tarifarios correspondiente al último mes. Los pliegos tarifarios contienen las 49
tarifas aplicadas en Nicaragua, contienen todos los elementos involucrados en el cálculo de las facturas de energía
eléctrica como son el importe a ser aplicado por cada kWh, el cargo por alumbrado público, el cargo de
comercialización y los subsidios a consumos mensuales menores de 150 kWh. La aplicación también puede sincronizar
5

186
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

toda la información de las diferentes categorías de equipos, que se encuentran en el servidor web de Valu-Sol, a fin de
poder disponer de una lista amplia y actualizada de equipos, y hacer uso de las diferentes consultas y comparaciones
que contiene la aplicación. La sincronización se realizaría cada vez que el usuario quiera actualizar la base de datos
local de la aplicación de escritorio.
Las versiones Web y Android están en proceso de desarrollo. La sincronización desde la versión de escritorio
al servidor web se establece mediante tokens, los cuales se generan una vez el usuario ingresa a su cuenta en la
aplicación de escritorio y se conecta al servidor web. Esta cuenta deberá ser creada desde el sitio web de Valu-Sol al
descargar por primera vez la aplicación. Una vez instalada la aplicación funciona sin conexión a internet, solamente se
utiliza conexión al momento de que el usuario quiera sincronizar pliegos tarifarios y el listado de equipos. Incluso, si
solamente se desea trabajar con una lista de equipos personalizada, los usuarios pueden crear sus propios equipos y
almacenarlos en la base de datos local de la aplicación. Es posible generar reportes en Word, PDF y Excel de los
equipos, de los análisis de consumo, ya sea un reporte general o específico. Dependiendo de la actividad que se realiza
en la propiedad (hogar, negocio, mixto) los usuarios recibirán una lista personalizada de equipos.
A. Componentes Físicos
El diagrama de despliegue (Gráfico 4), muestra la arquitectura en tiempo de ejecución del software. El cual
funciona a partir del uso de clientes y servidor, manteniendo una conexión HTTP y exportación e importación de
archivos JSON para usar todas sus funcionalidades por medio de un navegador web, móvil y aplicación de escritorio
en los diferentes clientes.

Gráfico 4. Diagrama de Componentes Físicos


Consulta Factura: La Consulta de una factura requiere la identificación de cualquiera de las 49 tarifas
disponibles en un pliego tarifario. La aplicación internamente hace sus consultas a la base de datos SQLite que almacena
toda la estructura necesaria para hacer el cálculo para cada caso particular. Dependiendo del tipo de tarifa en el que el
usuario se encuentre clasificado, ya sea Normal, Monomia, Binomia sin medición horaria estacional y Binomia con
medición horaria estacional, la aplicación mostrara los campos que el usuario debe ingresar con ayuda de la factura de
energía, estos parámetros y los resultados reflejados en la facturación depende del tipo de tarifa. La aplicación se
conecta a la base de datos local y extrae la estructura de la tarifa que el usuario seleccione, el usuario deberá introducir
el periodo de consumo, el cual sale reflejado en la factura, si desea o no agregar el alumbrado público y los parámetros
que requiere la tarifa. Una vez el usuario de clic en calcular, se realizará el cálculo de su factura y la visualización en
pantalla de todos los conceptos e importes que corresponden al detalle de facturación, de esta manera el usuario podrá
comprobar si el monto de dinero reflejado en su factura está bien hecho.
En esta consulta es crítico que el usuario conozca bien la estructura de su factura de electricidad, en vista que,
aunque sean pocos los datos requeridos, la selección de los mismos en la factura debe ser precisa. El subsidio en
Nicaragua se aplica a los primeros 150 kWh consumidos en el mes, sin embargo, el cobro es escalonado, se divide en
un arreglo 25 – 25 – 50 – 50, donde cada uno de estos niveles tiene asignado un valor determinado por kWh de acuerdo
a la clasificación del usuario. Luego para el cálculo de los demás conceptos reflejados en la factura, hay una manera
diferente para obtener el monto en córdobas. Uno de los casos especiales seria el cálculo del alumbrado público, el cual
se calcula dependiendo del municipio en el que está la propiedad a la que pertenece la factura.

187
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

Consulta de Consumo: En la consulta de


consumo se utiliza otro elemento fundamental
en la estructura de la aplicación, como es la
identificación del uso de la propiedad donde
se brinda el servicio, el usuario tiene que
escoger entre hogar, negocio y mixto (ambos).
Dependiendo de la actividad que seleccione el
usuario podrá disponer de una lista
personalizada de equipos. Una vez se
establece la actividad y la fecha inicio y fin de
consumo, se carga la interfaz de consulta de
consumo, donde el usuario debe agregar cada
equipo eléctrico que tenga en la propiedad
sobre la que se desea crear el análisis de
consumo, además de los equipos se debe
establecer el tiempo de uso de cada uno y en
Gráfico 5. Diagrama de Secuencia Consulta Factura caso de conocer el tiempo en espera que pasa
cada equipo se puede especificar para lograr
un resultado más cercano y preciso. Para hacer el cálculo de la energía se hace la siguiente operación Energía kWh =
potencia* horas/1000. Cuando el usuario termine podrá asignar un nombre al análisis de consumo. El cual se almacena
en la base de datos local.
Consulta de Equipos: Las consultas pueden incluir comparaciones sobre equipos, lo cual ayuda a identificar
si los equipos que se utilizan están más energía con respecto a otros equipos que están en la base de datos. Esta sección
se divide en 4 tipos de consultas enumeradas anteriormente. Algo en común que tienen en común las cuatro consultas,
es que se puede comparar contra equipos o grupos de equipos que hayan sido establecidos de manera manual, lo cual
es muy útil si se tienen equipos previamente visualizados, pero si el usuario no conoce mucho de equipos, la aplicación
permite presentar los equipos más eficientes para así poder definir de esta manera si el equipo o grupo de equipos con
que cuenta el usuario son más eficientes o existen otras configuraciones de equipos que puedan consumir menos
energía. En la consulta Vis a Vis se extrae la lista de objetos o equipos el usuario procede a establecer el equipo que
quiere comparar (comparado) y selecciona de manera manual o automática los demás equipos (comparandos), se
determinan la energía y su gasto monetario, calculando el total de ahorros en energía y dinero de los equipos más
eficientes. De esta manera el usuario puede ver si le conviene cambiar a otro equipo o quedarse con el que tiene.
En lote actual vs lote alternativo, se crea una configuración de equipos (del mismo tipo) contra un grupo de
equipos genérico que establece el programa de manera manual o automática, esto ayuda a saber cuál de las dos
configuraciones genera más ahorro. En comparación por carga, se crean grupos y cada grupo puede tener subgrupos de
equipos de distintos tipos, donde esto permite verificar cuál de las áreas de equipos con que se cuenta, está generando
más consumo de energía. Esto alertaría al usuario a fin de controlar la situación, conforme se van agregando subgrupos
a los grupos, se va estableciendo contra quienes se desea comparar y el sistema automáticamente los va ordenando
desde el más eficiente al menos eficiente. La última consulta es la comparación por demanda, en la cual se establece
primero la unidad de comparación y la demanda de esta, para así generar recomendaciones de cuantas unidades de
equipos se necesitan para suplir esa demanda. Es posible establecerlo de manera manual si se desea una lista más
personalizada, de esta manera el usuario sabrá cuantos equipos necesita para la demanda.
Consulta de Ahorros: Cuando se consulta sobre el equipo en uso (Actual) contra un equipo Nuevo, se
establece el valor de rescate de ambos, además de los parámetros en los cuales se hará el análisis como son la tarifa, el
número de días y horas. Una vez ingresados los datos la aplicación procede a mostrar los resultados mediante una tabla
de ahorros de los próximos 6 meses, los costos de sustitución con valor de rescate y sin valor de rescate, con su
respectivo gráfico, los cuales tienen por finalidad demostrarle al usuario en cuanto tiempo podría recuperar su inversión,
mediante ahorros en la facturación. La comparación de Nuevo vs Nuevo permite ingresar el precio de cada equipo y
verificar cuál de los dos es más eficiente. Una vez que se selecciona el más eficiente demuestra en cuanto tiempo se
recupera el valor del equipo vía ahorros y contemplando precios de mercado. No siempre menor consumo está asociado
a menor precio del equipo. Ambas consultas funcionan sobre la misma interfaz gráfica, todo depende de la que se
seleccione. Toda la estructura está sobre tablas que permiten ordenar el texto y los componentes de la interfaz gráfica,
permitiendo controlar el tamaño en distintas pantallas. Existe otra comparación en esta sección consulta de ahorros, la
cual es la consulta de oferta comercial, la cual permite seleccionar productos, a los cuales se le asigna el precio al que
normalmente se encuentran en el mercado y el precio de la oferta, esto permite visualizar cuantos meses de ahorros en
energía puede cubrir ese descuento.
Visualizar Análisis: Continuando lo anteriormente explicado, al acceder a la sección de visualizar análisis
se carga la interfaz que extrae de la base de datos la información de todos los análisis almacenados. Gracias a la
estructura de clases que tiene internamente, la aplicación extrae una lista de objetos los cuales contienen toda la
información relacionada a los análisis, como son la lista de propiedades y la información detallada de cada análisis.
Esta estructura le permite a la aplicación trabajar de manera óptima debido a que toda la información esta accesible,
gracias a la lista que se extrae al iniciar la interfaz, esto evita repetición de consultas a la base de datos, permite al
usuario ver todos sus análisis y ver el detalle especifico de cada uno, además de imprimir un informe general o uno
específico.
Configurar: En la parte de configurar se hace la gestión de creación, actualización y eliminación de
categorías, tipos de equipos y marcas, los cuales están definidos en la aplicación. Estos elementos, gracias a la estructura
7

188
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

de clases que contiene, permite su administración de manera fácil. Además de dicha administración se establece el
idioma sobre el cual se ejecute la aplicación, el idioma se carga gracias a que toda la información esta almacena en
archivos de recursos, donde se crearon dos archivos por cada interfaz para poder acceder a ellos de una manera más
ordenada, uno en inglés y otro en español. En cada interfaz, en el evento Load del formulario, se ejecuta un método
llamado Aplicar Idioma el cual verifica el idioma sobre el que corre el hilo de la aplicación y establece el archivo de
recursos correspondiente.
Equipos: En esta interfaz permite visualizar todos los equipos sincronizados desde el servidor web y los
equipos que se han creado de manera personalizada en la aplicación. Es posible que un usuario en su PC pueda
actualizar, eliminar y crear nuevos equipos, a los cuales tiene acceso desde cualquier consulta de la aplicación. Además,
es posible imprimir reportes de todos los equipos en la base de datos para poder leer de manera más organizada.
Sincronizar: Cuando se desea sincronizar lo primero que hace la aplicación, al cargar la interfaz, es verificar
el token, si no se tiene, la aplicación carga un formulario de login al que se debe ingresar mediante las credenciales que
se obtienen al crear una cuenta en la página web de Valu-Sol. Una vez se tiene el token, la aplicación no volverá a pedir
las credenciales hasta salir de ella. Para controlar el tiempo de insertado de los pliegos, la actualización o insertado de
los equipos, se trabaja con hilos para que el usuario pueda realizar otras operaciones en la aplicación mientras se
sincroniza los equipos, o controlar que la interfaz no se bloquee al momento de descargar un pliego tarifario nuevo.

Gráfico 6. Diagrama de Secuencia Sincronizar Pliegos

La sincronización de los pliegos tarifarios contempla entrar a la interfaz de usuario, conectarse al servidor
web y extraer la lista de pliegos disponibles. Después se los muestra al usuario, este selecciona el que necesita descargar
y la aplicación se vuelvo a conectar una segunda vez al servidor web, el cual devuelve toda la estructura de pliegos
tarifarios. Internamente se procede a insertar el pliego en la base de datos local, una vez hecho este proceso, la aplicación
podrá disponer en cualquiera de sus consultas y análisis de los pliegos actualizados.
Toda la aplicación de escritorio está desarrollada en el lenguaje de programación C#, utilizando una base de
datos local SQLite. La aplicación para dispositivos móviles está en proceso de desarrollo, la cual está utilizando la
tecnología de Android con Xamarin en C#. Ello permitirá acortar el tiempo de desarrollo debido a que la sintaxis no
cambia mucho, para la base de datos en Android se está utilizando también la tecnología de SQLite. La aplicación de
Web (en desarrollo también), está utilizando el framework de Laravel en PHP, utilizando como gestor de base de datos
MySQL. En un futuro cercano todo el entorno de Valu-Sol Consumidor podrá funcionar en las tres plataformas.
Facilitando el acceso a todas las herramientas de la aplicación, desde cualquier dispositivo y en cualquier lugar.

[Link] PRELIMINARES
Dado que el programa Valu-Sol está diseñado como herramienta de apoyo de los usuarios y consumidores
de energía eléctrica en Nicaragua, es necesario garantizar que el mismo sea fácil de manipular y genere información
útil y clara para las personas que no son especialistas o profesionales en temas de electricidad y aplicaciones
informáticas. Para ello se desarrolló una prueba del sistema con la participación de 10 usuarios de tarifa T-0 (Tarifa
residencial).
La Prueba de Sistema se desarrolló en dos etapas:
A. Primera etapa: Se presentó el programa a los usuarios y se solicitó que realizaran algunas actividades:
1. Comprobar factura: Para ello se les pidió llevaran las facturas generadas para el mes de abril del año 2019
(15 de abril a 14 de mayo) y comprobaran si el monto obtenido es igual al generado en la factura.
2. Ingresar equipos: Se les solicito a los usuarios que recopilaran datos de tres equipos eléctricos de sus
viviendas, los datos solicitados son: tipo de equipo, marca, modelo y potencia en watts, y que ingresaran los
datos recopilados al sistema.
3. Consumo de Equipos: Con la información ingresada de los equipos, los usuarios debían realizar una prueba
del consumo generado por los equipos, indicando el tiempo promedio que utilizan los mismos diariamente y
realizar un reporte del consumo por equipo y total estimado mensualmente.
8

189
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

B. Segunda etapa: Una vez realizadas las pruebas, se envío un formulario a través de la aplicación Google Forms
compuesto por 12 preguntas acerca del funcionamiento y aceptación del programa Valu-Sol, los resultados
obtenidos fueron los siguientes:
1. Descripción de los participantes: Se contó con la participación de 10 usuarios que tienen tarifa T-0, de los
que el 60% son hombres, la edad promedio de los participantes fue de 32 años, todos profesionales.
2. Necesidad del programa: El 40% indicó que han percibido que han tenido problemas con el monto de la
factura y que consideran que hay errores en el monto de la factura; ninguno de los participantes conocía o
había usado la herramienta para comprobar el monto de la factura que tiene disponible el Instituto
Nicaragüense de Energía INE en su sitio web.
3. Evaluación del programa: El 90% de los participantes considera que la herramienta Valu-Sol es útil y que
es fácil de utilizar; 80% señaló que las herramientas y aplicaciones del programa son fáciles de utilizar.
4. Aceptación del programa: El 80% de los participantes indicaron que les gustaría conocer más acerca del
programa Valu-Sol y un 90% indicó que utilizaría regularmente el mismo (100% la herramienta de consulta
de factura y un 80% consulta de consumo de equipos).
Durante el desarrollo de la prueba del sistema, se realizaron algunas observaciones que ayudaron a mejorar
la navegación en el mismo, de las que se destacó: Incluir opciones de ayuda o consultas para dar asistencia al usuario;
Agregar campos de notas con ejemplos de la información que se debe colocar en cada espacio; Colocar visualmente
solo los campos obligatorios en el espacio de “agregar equipos” y dejar la opción de visualizar los demás campos, solo
en el caso de que los usuarios lo deseen.
Se observó en las pruebas realizadas que existen variaciones en el monto de la factura, esto es debido a que
las facturas toman referencia de 15 días de un mes y 15 días del mes siguiente, y también porque hay variaciones debido
a la fluctuación de la tasa cambiaria. Los usuarios participantes mostraron buena aceptación del software, dado que el
mismo es fácil de utilizar y la información que genera es útil para ellos, es necesario realizar nuevas pruebas con mayor
número de participantes y con usuarios de diferentes pliegos tarifarios para generar información más precisa acerca de
la aceptación y uso que se le puede dar al programa.

VIII. CONCLUSIONES
• El programa informático Valu-Sol Consumidor está diseñado para asistir a las personas responsables de
administrar el consumo de electricidad en sus hogares y/o negocios. El programa no constituye per se una
herramienta de evaluación definitiva del uso y consumo de electricidad, sino que es una ayuda para la comprensión
de algunas variables básicas que afectan el consumo. Es posible adicionarle más elementos para hacerlo más
didáctico, con lo cual podría tener una mayor afectación en materia educativa para la población usuaria.
• Implementar una herramienta relativamente sencilla de utilizar, pero muy demandante en el aspecto de
disponibilidad de información técnica y comercial de los aparatos eléctricos presentes en una sociedad
determinada, representa un reto complejo. La herramienta requiere adecuarse al entorno país donde sea utilizada,
dado que los esquemas tarifarios de electricidad y sus mecanismos de cálculo pueden diferir hasta en el medio
legal; adicionalmente, los patrones de uso y consumo de electrodomésticos y aparatos eléctricos pequeños puede
variar de un país a otro. Es necesario adecuarse a cada país, aún la corriente comercial varía entre países en
Centroamérica, en Nicaragua es común los 110 voltios, pero en Honduras son los 220 voltios el estándar más
utilizado, por lo tanto, los equipos importados en cada país responderán más a cada situación particular.
• La progresión lógica de consulta de la herramienta es adecuada por cuanto va despertando el interés ante
incógnitas del consumidor. Al inicio la pregunta es ¿Han facturado bien?, aunque el programa se aproxima al
valor facturado, esto no constituye prueba de una facturación acertada y el consumidor lo sabe, por lo cual debe
continuar con la siguiente pregunta ¿Se consume lo que está reportado en la factura? A esta pregunta el
consumidor debe responder con el levantamiento de su censo de carga, lo puede hacer manual o asistido con una
versión para celular. En vista que serán estimados de tiempos de uso lo que ingrese, los resultados pueden resultar
muy distintos al facturado, pero la inquietud ya está anidada, y la pregunta subsecuente sería ¿Qué equipos se
deberían cambiar? El programa aquí ya puede ayudar más en hacer comparaciones entre equipos, presentar
estimados de los resultados financieros de hacer sustituciones y con ello generar ahorros. Al final del proceso, la
aplicación ha asistido al consumidor en responder a las preguntas naturales que se generan por un gasto en
electricidad y a visualizar mejor su comportamiento de consumo y posibles opciones para reducir el consumo y
el pago.
• La herramienta informática tiene un alto potencial dentro del campo de administración financiera de los recursos
energéticos en las empresas. Con un diseño adecuado la herramienta podría dar lugar a una aplicación distinta,
cuyo enfoque sería asistir al consumidor para desarrollar Planes de Eficiencia Energética. Para ello se hará
necesario encontrar mecanismos que permitan registrar en más detalle los consumos por equipo, por proceso, por
dependencia, de tal manera que sea posible hacer una contabilidad energética, similar a la contabilidad por centro
de costo.
• Los proyectos de optimización de procesos demandan la adopción total por parte del usuario, así como patrones
de comportamiento adecuados para la ejecución exitosa de los procesos. Herramientas como Valu-Sol
Consumidor pueden asumir el rol dual de asistente y educador. Para este caso se requiere que las personas no sólo
aprendan el uso de la herramienta, sino que identifiquen los comportamientos de consumo que redundan en
beneficios tangibles y optimizan el uso de la electricidad. Lograr lo anterior, tiene un alto impacto social y
económico, pero sólo pueden impulsarse por acciones de Gobierno. Es necesario dar un primer paso en la prueba
y validación de Valu-Sol Consumidor en Nicaragua y/o en Centroamérica, definir un mecanismo de
multiplicación de experiencias por la vía operativa y académica, asegurando que los modelos de trabajo son
replicables y aglutinan a todos los agentes interesados.

190
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

XII Congreso de Computación para el Desarrollo (COMPDES - 2919)

IX. REFERENCIAS

[1] Proyecto UNSEWN 2, «Informe de Análisis de la Situación de Acceso a la Energía Eléctrica en la Región de Las Segovias,»
Universidad Tecnológica La Salle, León, Nicaragua, 2018.

[2] CNE, «Consejo Nacional de Energía de El Salvador,» 2019. [En línea]. Available: [Link]
electricas12/comparativo-centroamericano-de-precios-de-energia/precios-de-la-energia-electrica-en-centroamerica-consumo-
residencial22/.

[3] INE, «Instituto Nicaragüense de Energía,» 1 Mayo 2019. [En línea]. Available:
[Link]

[4] JSON, «JSON,» [En línea]. Available: [Link]


[5] Sparx systems, «Diagrama de Despliegue UML,» [En línea]. Available:
[Link]

[6] Microsoft, «Xamarin,» [En línea]. Available: [Link]


to-mobile-development.

[7] Microsoft, «Introducción al lenguaje C# y .NET Framework,» [En línea]. Available: [Link]
es/dotnet/csharp/getting-started/introduction-to-the-csharp-language-and-the-net-framework.

[8] F. J. Ceballos, Enciclopedia de Microsoft Visual C#. 4ª edición, Santander, Cantabria, España: Grupo Editorial RA-MA, 2013.

X. BIOGRAFÍAS
Alden Jirón. Autor
El Sr. Alden Jirón posee un MBA de la Universidad de New Haven, Connecticut, EE. UU.
Actualmente es el Coordinador del Centro de Negocios de Recursos Naturales y Energías
Renovables (CENRENER), de la Universidad Tecnológica La Salle (ULSA). En esta labor
asiste en el diseño y desarrollo de Proyectos, valoración de oportunidades comerciales,
modelación de procesos de trabajo integrados (operacional, financiero, académico), directrices
y políticas de recursos humanos, entre otros. Su experiencia profesional abarca el diseño,
desarrollo, implementación y evaluación de proyectos rurales y urbanos, tanto a nivel local
como regional, para organizaciones multilaterales, donantes internacionales, organismos no gubernamentales, sector
gobierno y sector privado. En 2017 y 2018, el Sr. Jirón, en calidad de Coordinador de CENRENER, diseñó, dirigió y
asistió en la ejecución de los cuatro proyectos que ULSA desarrolló bajo la iniciativa CEFF-CAA con la Agencia para
el Desarrollo Internacional del Gobierno de los Estados Unidos (USAID).

Christopher Manzanares. Autor


El Sr. Christopher Manzanares es Ingeniero en Sistemas de Información de la Universidad
Nacional Autónoma de Nicaragua (UNAN-León). Actualmente funge como Docente en la
Universidad Tecnológica La Salle (ULSA) en las cátedras de Lenguaje de Programación I,
Ofimática Aplicada, Herramientas de Informática Aplicadas a los Negocios y, Análisis y Diseño
de Sistemas. Es también miembro del equipo de Desarrollo de Aplicaciones de ULSA, y está a
cargo del desarrollo de Valu-Sol Consumidor como responsabilidad particular.

Vinicio Sandino. Autor


El Sr. Marco Vinicio Sandino Castillo posee una maestría en Formación Docente y Gestión de
la Calidad Educativa de la Universidad Nacional Autónoma de Nicaragua (UNAN-León).
Actualmente es Coordinador de Planificación y Evaluación Institucional (enero 2019 a la fecha)
y se desempeñó como Coordinador de Investigación y Posgrado (2016-2018) en Universidad
Tecnológica La Salle (ULSA León-Nicaragua). Parte de sus funciones incluyen el
acompañamiento metodológico de los proyectos de investigación y desarrollo que la
universidad elabora. Ha presentado y publicado como autor y co-autor, artículos en temas de
gestión universitaria, emprendimiento e innovación y adaptación de tecnologías de motores para su funcionamiento
con biodiesel. Diseñó, dirigió y asistió en la ejecución de un proyecto de fortalecimiento empresarial de una cooperativa
en el municipio de Somoto, que ULSA desarrolló bajo la iniciativa del Grupo TRAGSA con la organización Acción
Contra el Hambre.

10

191
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Educación inteligente en zonas rurales


Análisis multidimensional de la Zona de San Carlos

E-education in rural areas


Multidimensional analysis on the San Carlos area

Rocío Quirós Oviedo


Tecnológico de Costa Rica, Costa Rica
[Link]@[Link]

Ana Lorena Valerio Solís


Tecnológico de Costa Rica, Costa Rica
lvalerio@[Link]

Resumen — Este documento se describen detalles de lo que conocemos hoy en día como Ciudades inteligentes,
específicamente en el pilar de Gente y Vida en el que se incluyen los aspectos de educación, es por esto que se
detallan algunos casos de éxito de educación inteligente en varias ciudades inteligentes como lo son España,
Finlandia, entre otros y en países que están en proceso de convertirse en una el caso de República Dominicana.
Además se presenta un análisis de la situación actual multidimensional de la Zona Norte de Costa Rica
abarcando aspectos de política, economía, social, administrativa y tecnológica, todo esto con miras de realizar
una propuesta de Educación Inteligente en la región.

Palabras clave: educación inteligente; ciudades inteligentes, análisis multidimensional.


Abstract — This document describes details of what we know today as Smart Cities, specifically in the pillar of
People and Life in which the aspects of education are included, this is why some success stories of smart
education are detailed in several cities smart as they are Spain, Finland, among others and in countries that are
in the process of becoming in smart city as it is Dominican Republic. In addition, an analysis of the current
multidimensional situation of the Northern Zone of Costa Rica is presented covering aspects of politics, economy,
social, administrative and technological, all with the aim of making a proposal of Intelligent Education in the
region.

Keywords: e-education; smart cities;multidimensional analysis.

I. INTRODUCCIÓN
Una Smart City es una ciudad en la que las soluciones tecnológicas están al servicio de la mayor cantidad
posible de ciudadanos. Para catalogar una ciudad inteligente se toma en cuenta seis pilares según [1], que
los cita como Gente, Economía, Movilidad, Vida, Gobierno y Ambiente inteligente.
El pilar de Gente y Vida inteligente incluyen aspectos relacionados con la educación como la educación
superior, enfoques flexibles en la vida y el trabajo, alta productividad laboral, enfoque emprendedor y

192
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

vocación empresarial y pluralidad cultural. Mejor educación, programas de alfabetismo digital, mejores
servicios de salud, planificación habitacional, acceso a las Tecnologías de Información y Comunicación
(TICs), entre otros. Debido a lo anterior, la educación pasa a ser un eje muy importante para las ciudades
inteligentes, así como el hecho de que los ciudadanos puedan aprovechar al máximo todos los recursos
tecnológicos, por tanto, no debe existir brecha digital o analfabetismo digital. Debe existir el recurso
humano formado para dar soporte a la tecnología disponible en la ciudad inteligente. Así como fortalecer
la educación ambiental, educación vial en los ciudadanos de forma integral para dar soporte a los demás
pilares. Además de generar los profesionales que la economía y gobierno del país o ciudad necesitan.
Dentro de las ciudades inteligentes aparece el concepto de educación inteligente, el cual comprende
varios aspectos uno de los primeros es que la educación debe ajustarse a la vida de Ubiquitous (estar en
cualquier lugar y en cualquier momento), con la ayuda de la TICs se logra este estilo de vida, ya que permite
compartir la mayoría de la información en cualquier momento donde quiera que estemos. Los aparatos
smart permiten tanto a profesores y estudiantes, enseñar y aprender con mejor, con más comodidad y con
medios más dinámicos [2].
Otra tendencia innovadora es el Internet of Things (loT) en las Instituciones de Educación Superior que
se empieza a desarrollar con la adopción de tecnologías IoT, se refleja en aspectos como: estrategias de
enseñanza aprendizaje (smart learning); servicios altamente tecnológicos (smart campus); aulas inteligentes
que facilitan la interacción estudiante-docente (smart classroom); diseño y desarrollo de contenidos
multimedia para el aprendizaje (smart education) [3].
El IoT como herramienta pedagógica, hace referencia a la utilización de recursos o tecnologías IoT en
la enseñanza y aprendizaje de contenidos o en la generación de éstos, un ejemplo de estos pueden ser: los
laboratorios o espacios prácticos para la enseñanza y aprendizaje que pueden ser operados remotamente o
no, mediante tecnologías IoT para un aprendizaje y entrenamiento ubicuo. Las tecnologías IoT en la
creación de herramientas y recursos pedagógicos permiten recrear experiencias reales; por ejemplo, la
utilización de sistemas IoT en recolectar información del mundo real que luego sirva para construir un
mundo o ambiente virtual educativo [3].
Con la ayuda de estas tecnologías se logran entornos híbridos de aprendizaje mediados por IoT, TICs,
que combinan objetos del mundo real, incluso en tiempo real, con objetos virtuales o simulados. Estos
permiten a los estudiantes partir de situaciones reales o capturadas mediante dispositivos IoT, vivir
experiencias simuladas o virtuales educativas [3][4].
Hoy en día la educación inteligente está aumentando las demandas de contenido educativo interactivo
y participativo, por lo que se requiere de un sistema relevante de "educación inteligente" para un aprendizaje
eficiente. Se propone el uso de recursos en realidad virtual y realidad aumentada en la educación. En el
estudio [5], se identifican varios recursos que contribuyen a mejorar el proceso educativo. Este tipo de
tecnología detecta la posición y las acciones del participante y reemplaza o aumenta la respuesta a uno o
más sentidos, dando la sensación de estar mentalmente inmerso o en la simulación un mundo virtual, este
tipo de concentración y estimulación hace que los conocimientos perduren por más tiempo en la memoria.

II. NECESIDADES EN EDUCACIÓN EN LA ZONA NORTE


Algunas de las necesidades en la educación en San Carlos son:
● Según el periódico La Nación [6], los educadores imparten clases sin refrescar conocimientos, los
cuales arrastran errores en manejo de grupo, uso de tecnología y contenidos del MEP, según los III
y IV informes del Estado de la Educación, Costa Rica carece de un plan integral para formar a los
docentes
● En San Carlos, existen faltantes de profesionales (en proporción a la cantidad de población por
distrito). Además, 34 centros educativos del cantón tienen faltante de educadores [7]. Según [8],
los educadores foráneos no se comprometen con el pueblo.
● Según [9] [8] existe deserción escolar y de secundaria, además una brecha digital existente según
[10]. El desarrollo productivo demanda un recurso humano con formación superior en los campos
de informática e ingeniería, al igual que técnicos calificados en áreas relacionadas con las TIC, lo
que permitirá mejorar la competitividad [10].
A continuación, se analizan algunos aspectos referentes a la problemática de la educación inteligente en la
Zona Norte del país de Costa Rica, así como algunas de las características locales de este tema:

193
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

● En [11] realizan un análisis de la situación que vive el cantón en cuanto a la educación se trata, y
es que la inversión en infraestructura por parte del MEP no ha sido suficiente para cumplir con la
demanda educativa del cantón debido a su gran extensión, y es que detallan que hacen falta colegios
de los diferentes tipos en muchos de los sectores del cantón.
● En [12] se menciona que en Costa Rica para el año 2014, existían cerca de 47.000 niños con edades
entre 5 y 12 años que no asistían a ningún centro educativo. La cifra representa un 8,2% de la
población comprendida en ese rango de edades, según el Censo del 2011. Además, dicho estudio
arrojó que los cantones con mayor cantidad de niños que no estudian son San José (2.722), Alajuela
(2.417) y San Carlos (2.215)
● Para el año 2016, en lo que respecta a la educación en secundaria, se tiene que un total de 40 541
estudiantes tanto de colegios académicos como técnicos, procedentes de los sectores públicos y
privados, presentaron las pruebas de bachillerato, de los cuales un 73,26% lograron graduarse [13].
En el caso del cantón de San Carlos contó con un 67,99% [13] de aprobación. Lo que indica que
un poco más de 30% de los estudiantes que presentan las pruebas no pueden obtener su título.
● En análisis de la información del personal del MEP que brinda servicios en secundaria, se constató
que la profesionalización de las y los educadores no es un problema (el 96% está titulado), pero
según [14] la mayoría de concentración de los docentes titulados se encuentra en la zona central
del país.

III. TENDENCIAS TECNOLÓGICAS EN CIUDADES INTELIGENTES EN LA EDUCACIÓN


Las tendencias tecnológicas de Educación en las ciudades inteligentes en la actualidad son: (1) Acceso
a recursos digitales, (2) docentes innovadores y (3) gestores académicos estratégicos. Los cuales se van a
detallar a continuación, específicamente para el caso de Costa Rica y la Zona Norte
A. Acceso a recursos digitales
En Costa Rica algunos sitios públicos (parques, canchas, etc.) cuentan con internet gratuito en la zona
como: el parque central de CQ de 60 megas [15], Aguas Zarcas, Florencia, Pital, Palmera, Pocosol, Fortuna,
Cutris, La Tigra, Monterrey y Venecia [16].
En el país también se cuenta con un proyecto gubernamental llamado “Hogares Conectados”, el cual
beneficia a familias en pobreza, pobreza extrema y en vulnerabilidad de los diferentes cantones que
conforman la Zona Norte, en el caso de San Carlos se beneficiaron 1017 familias en el 2016, y se irá
aumentando en el 2017 y 2018 [17]. Este proyecto busca reducir la brecha digital por medio de dotar de
una conexión fija de Internet al hogar y además de entregar computadoras a familias de escasos recursos.
Centros educativos como escuelas, colegios y universidades cuentan con acceso a internet,
computadoras y demás equipos tecnológicos, la Fundación Omar Dengo cubre más 3200 centros educativos
llegando a un 87,6% del estudiantado en el año 2017 [18]. Sabemos que las zonas más alejadas son la que
tienen un cobertura más baja [19], [20].

B. Docentes innovadores
Las prácticas docentes innovadoras deben ser a partir de dar soluciones a problemas reales, que sean
del interés de los estudiantes, quienes pueden desarrollar proyectos propios también conocer y aportar a los
de otros compañeros, a través de plataformas digitales
En Costa Rica a través de la Fundación Omar Dengo se han introducido nuevas propuestas educativas,
que utiliza la tecnología, permitiendo crear ambientes estimulantes para el aprendizaje y donde cada
estudiante pueda desarrollar sus capacidades, sus intereses y talentos. En el año 2017 se contabilizó que
alrededor de 2.020 centros educativos del Programa Nacional de Informática Educativa (PRONIE) trabajan
propuestas educativas con tecnologías móviles para apoyar la implementación de la currícula dentro del
aula, ya sea en el área de matemática, ciencias u otro. Se describe que el 63% de los centros educativos que
forman parte de este programa utilizan la Tecnología Móvil y el 37% de Laboratorios de Informática
Educativa [21].

194
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

C. Gestores académicos estratégicos


Un esfuerzo nacional como gestor académico ha sido la creación del SINAES para acreditar carreras a
nivel superior en pro de la calidad académica. En San Carlos el TEC cuenta con carreras acreditadas por
este ente.
Las bibliotecas locales, cuentan con colecciones digitales para su acceso a profesores y estudiantes,
aunque no cuenta con repositorios en la nube para trabajos de tesis.
La Dirección Regional de Educación en San Carlos, cuenta con asesoría pedagógica, pero no cuenta
con todos procesos digitalizados, como por ejemplo la entrega de atestados para la participación en un
concurso.
La Agencia para el Desarrollo de la Zona Norte vincula sectores productivos y académicos, donde la
educación es un pilar muy importante para sustentar el polo de desarrollo de la región [21], pero a pesar de
que se tienen varios proyectos propuestos, como en proceso y ejecutados aún no se cuenta con manejo de
Big Data para la toma de decisiones.
IV. CIUDADES QUE HAN TENIDO ÉXITO EN UN ABORDAJE DE CIUDAD INTELIGENTE EN EL EDUCACIÓN
INTELIGENTE

En la siguiente tabla 1, se detallan algunas de ciudades donde se han abordado elementos de educación
inteligente.

TABLA I CIUDADES-PAÍSES CON ABORDAJE EN TEMAS DE EDUCACIÓN INTELIGENTE

Ciudad Aspectos de Educación inteligente


Abordaje
Este país se caracteriza por tener una de las mejores educaciones en el mundo, en lo que respecta a
educación inteligente está empezando con el desarrollo de diversos programas para la incorporación
de las TIC en educación: Portal Web [Link] que es una plataforma administrada por la Comisión
Helsinki, Finlandia Nacional de Educación y que centraliza los principales programas de las TIC en educación del país,
el mismo está dividido por niveles educativos y subsectores de aprendizaje [22].
Los directores de los centros educativos cuentan con autonomía por lo que pueden decidir si quieren
que en su centro se usen o no esas tecnologías de información [23]
Las tecnologías de la información y la comunicación (TIC) son tecnologías clave para la economía
suiza. Hay un entorno de crecimiento excelente para el desarrollo de aplicaciones y de juegos. A raíz
de esas fuentes de talentos, empresas como Google, IBM y Walt Disney han establecido sus centros
de investigación en Suiza.[24]
Los cantones y municipios asumen la regulación y aplicación educativa, y es la Conferencia Suiza
para la Coordinación de las TIC, quien coordina todas las actividades de las diferentes instituciones
Suiza implicadas, tanto a nivel nacional como cantonal. Adicionalmente se ha creado recientemente una
delegación responsable de la Estrategia de la Sociedad de la Información, que persigue dos objetivos:
integrar las TIC en todos los niveles de la educación y asegurar la alfabetización digital (en seis áreas:
-integración plena de las TIC como herramientas, recursos y competencias, - disponibilidad de
contenido digital, - mejora de la competencia digital de los docentes, - intercambio de información y
colaboración sobre el sistema educativo en una plataforma, -infraestructura adecuada mediante
acuerdos entre el sector público y privado, - fortalecimiento de la colaboración internacional).
Una de sus prioridades es la educación, además de un uso global e integrado de la tecnología para
mejorar la vida de sus habitantes y la apuesta intensiva por la innovación. La educación se ve como
Singapur una inversión no como un gasto (debido a esto los presupuestos para educación nunca han sido
recortados) hay bibliotecas públicas en los centros comerciales y los mejores estudiantes son
noticia.[25]
Tienen iniciativas con empresas como Google y Samsung, en los cuales más de 3000 centros
educativos se ven beneficiados con los proyectos de TI que están patrocinando dichas empresas.[26]
Algunos de los puntos fuertes de esto que están realizando con el desarrollo de los proyectos es:
Motivación por parte de los estudiantes (debido a que utilizan dispositivos electrónicos en lugar de
Barcelona, España libros físicos)
Atención más personalizada (ya que las unidades didácticas están en la nube, por lo que cada alumno
puede ir avanzando a su ritmo).
Mejoramiento del intercambio de ideas (información compartida por medio de herramientas
colaborativas como Drive).
Este país todavía no forma parte de las Smart City pero desde el 2017 a través del programa República
Digital, ha pensado en que debe convertirse en una ciudad inteligente [27]. Actualmente tiene una
Plataforma de Educación Digital administrada por el Ministerio de Educación.
Además cuentan con los siguientes servicios [28]:
República Dominicana - e-School (escuela electrónica o aula digitales): Son los sistemas de administración de escuelas y
liceos públicos. Lleva control de los currículos académicos, calendario de clases y programación de
los periodos de clases.
- e-Student (estudiantes digitales): Son los sistemas de administración de registro, calificaciones e
historial académico de los estudiantes. Lleva control de las escuelas y liceos públicos.

195
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

- e-Libraries (bibliotecas digitales): actualmente tienen una iniciativa de red de centros tecnológicos
usando las bibliotecas públicas nacionales para mejorar el acceso y educar la ciudadanía y otros
sectores

V. Análisis de caso de éxito de España


A. Aspectos generales
Según [29] la educación es uno de los servicios públicos por excelencia. En este país, las competencias
educativas corresponden principalmente a las Comunidades Autónomas y al Gobierno Central por lo que
los Ayuntamientos apenas tienen margen de actuación en este ámbito. Es por este motivo que los expertos
de las empresas y de los Ayuntamientos dan menos importancia a la educación que el ciudadano, para el
que es más difícil distinguir el ámbito municipal del regional en los servicios que recibe.
En el ámbito de la educación, las iniciativas pasan por dos estrategias complementarias.
● Incorporar tecnología en los centros: conectividad, dispositivos, soluciones multitáctiles (pizarras
digitales), programas interactivos y otros productos que permiten a los alumnos aprender con la
misma naturalidad con la que juegan.
● Integrar contenidos digitales, herramientas y plataformas. El objetivo es facilitar el acceso a nueva
información y dar la posibilidad de compartirla tanto entre alumnos como con maestros y padres.
Adicionalmente se menciona que los ayuntamientos también pueden promover el desarrollo de
plataformas de formación digital. Como es el caso de Toolbox (iniciativa que agrupa varias aplicaciones
móviles evaluadas por profesores y que son útiles para mejorar el aprendizaje a través del uso de los
dispositivos móviles).

B. Factores de política importantes


Según [30] las políticas educativas destinadas a incorporar las TIC a las escuelas en el contexto español
tienen una trayectoria histórica de más de un cuarto de [Link] una primera etapa en los años ochenta, estas
políticas fueron impulsadas por el gobierno central español, teniendo de referencia el programa denominado
Atenea, posteriormente reconvertido en PNTIC (Programa Nacional de Tecnologías de la Información
y Comunicación). A continuación, con la creación y consolidación de los gobiernos de las Comunidades
Autónomas y la cesión de competencias en materia educativa, se elaboraron políticas y programas de
ámbito regional. También se tiene una experiencia de política nacional coordinada, que se denominó el
“Programa Escuela 2.0”, en el cual se permitiera que se compartieran las metas, procesos y presupuestos
similares en la mayor parte de las comunidades autónomas de España. Dicho programa estuvo enmarcado
en un contexto mundial que comenzó a desarrollar políticas destinadas a incorporar mucha tecnología a las
aulas y representó una apuesta española destinada a facilitar, de forma masiva, el acceso a las TIC a todos
los escolares y propiciar que el profesorado integrase pedagógicamente las mismas en su práctica de aula.
Estas políticas empezaron a configurar lo que se conoció como el “modelo 1 a 1”, es decir, un ordenador
por niño (pero esta tuvo una corta existencia temporal)

C. Costos y otros aspectos económicos relevantes


La política del modelo 1 a 1 tuvo un presupuesto inicial de 200 millones de euros, cofinanciados entre
el gobierno central y las Comunidades Autónomas, y se destinó, en principio, a los alumnos de 5º y 6º de
Educación Primaria, aunque en Cataluña y Extremadura se centró en los primeros cursos de la Educación
Secundaria Obligatorio (ESO). Este modelo de política educativa de un ordenador por estudiante no fue
adoptado por todas las comunidades autónomas españolas, ya que los gobiernos autónomos eran
competentes para adoptarla o no [30].
Otro aspecto que se destaca es la fórmula de convenios con empresas (que permite a muchas escuelas
mantenerse a flote en cuanto a TIC se refiere) como lo es la colaboración de Samsung a través del
“Proyecto Samsung Smart School”, el cual está favoreciendo la integración de tabletas en algunos centros
públicos. Esta empresa, en colaboración con el Ministerio de Educación, Cultura y Deporte, promueve la
integración de las nuevas tecnologías en las aulas de un total de 52 centros educativos públicos
pertenecientes a 14 Comunidades Autónomas [30].

196
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Además, se incurrieron en costos para realizar reuniones en seminarios y grupos de trabajo


para la puesta en común y nuevos desarrollos (un taller de 100 profesores del programa donde se
construyó un banco de cursos en Moodle) y se aprovecha la experiencia del programa para apoyar otros
programas (el de tabletas de la fundación Idea y el de institutos de alto rendimiento deportivo) [30].
El MEP cuenta con un proyecto de “biblioteca digital” [31] llamado Proyecto de transformación hacia
la biblioteca digital del MEP, Cambronero menciona que este sistema es el que mayor cantidad de
bibliotecas posee en el mercado nacional costarricense, además trabaja de forma integral y se ofrece como
un medio oficial único según sus características a toda la comunidad educativa costarricense.
El sitio del MEP cuenta con un repositorio de material en formato digital llamado “EDUCATICO” [32],
donde se puede encontrar recursos para administrativos, para la familia, para estudiantes de todos los niveles
y recursos para profesores. El material incluye los programas de estudio, antologías de capacitación,
videoconferencias, videos de apoyo, textos de apoyo, cuentos y otros materiales de apoyo como juegos,
entre otros. Además el sitio cuenta con un decálogo para la integración de tecnologías digitales en clase
[33].
La Fundación Omar Dengo y el Ministerio de Educación Pública de Costa Rica crearon un campus
virtual llamado “Upe” [34]. Esta plataforma da acceso a una amplia oferta de cursos en línea, formación de
comunidades de aprendizaje, brindando apoyo en el desarrollo profesional.

VI. ANÁLISIS MULTIDIMENSIONAL

Se realiza una análisis de las siguientes dimensiones a nivel de política, economía, social, administrativo
y tecnológico.

A. Política
La educación en Costa Rica es centralizada, dirigida por el Ministerio de Educación Pública, donde las
directrices son tomadas a nivel nacional, por lo que los gobiernos locales tienen muy poca decisión en el
tema de educación. El Consejo Superior de Educación (unidad desconcentrada de rango superior), es una
instancia con rango constitucional, dado así por la Constitución Política de Costa Rica, en su artículo 81 y
por la Ley No. 1362, del 8 de octubre de 1951, la cual, lo define como el rector en la orientación y dirección
de la enseñanza oficial, en los diferentes niveles, ciclos y modalidades del Sistema Educativo Costarricense.
Además, se encarga de definir la Política Educativa, de evaluar y de promover cambios pertinentes a fin de
mejorar la calidad, la equidad y eficiencia de la Educación Costarricense [1].
La ley número 2160 llamada “Ley Fundamental de Educación” de la república de Costa Rica, decreta
los aspectos relacionados con la educación, tales como los fines, el sistema educativo, la formación del
personal docente, la educación especial, los establecimientos privados de educación, el personal las juntas
de educación y juntas administrativas, así como la Extensión Cultural [2].
La ley 8256 y la ley 8798 confieren al Sistema Nacional de Acreditación de la Educación Superior
(SINAES) la categoría de órgano de interés público, a esta organización el estado costarricense le otorgó la
potestad de dar fe pública de la calidad de las instituciones, carreras y programas de educación superior,
solo a las que se sometan a su proceso de evaluación y demuestren el cumplimiento de los criterios de
calidad establecidos, por el momento es un proceso voluntario [25].
La ley 8798 en el artículo 4, establece que: si en una institución pública dos aspirantes tienen las mismas
credenciales, pero uno proviene de una carrera acreditada y el otro no, tiene prioridad el graduado de una
carrera acreditada, no así para el sector privado [26].
Limitaciones:
● A nivel nacional, aunque existen las leyes y los entes respectivos para cumplir a cabalidad con los
aspectos relacionados de educación. Sin embargo, esto no así, por ejemplo: en cuanto a la educación
técnica según [35] un estudio realizado por la Contraloría General de la República (CGR) concluye
que en Costa Rica no existe directriz o lineamiento público que establezca una orientación
estratégica a seguir en cuanto al proceso de formulación de la oferta de educación y formación
técnica. La CGR indica que esos objetivos no se han cumplido pero según la ley, dicha labor le
corresponde al Sistema Nacional de Educación Técnica (SINETEC).

197
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

● A nivel municipal la principal limitación está dada en la constitución del 1949 que debilitó el
régimen municipal en lo correspondiente a la educación formal, debido a que suprime la facultad
educativa de las municipalidades en el sistema formal [36].
● Las municipalidades se limitan a ofrecer algunas becas a estudiantes de escasos recursos, o ciertos
cursos de capacitación no forma. Así como nombrar las juntas las de Educación, juntas
Administrativas y destinar fondos a la para contribuir o reparar escuelas; y no una política articulada
para colaborar con el sistema educativo desde el seno de los gobiernos locales.
En la educación costarricense se encuentran los siguientes actores:
● Ministro de educación: el actual ministro es consciente de la mala ejecución de presupuestos como
por ejemplo el de la Dirección de Infraestructura y Equipamiento Educativo (DIEE) y del superávit
para el pago de salarios.
● Empleadores de egresados del INA y del MEP: ven como gastos extra la contratación de personal
de estos centros educativos debido a la deficiente formación de los técnicos y tienen que invertir
para terminar de cubrir las necesidades educativas requeridas. [37].
● Estudiantes de la Zona Norte: Estudios indican que los estudiantes manifiestan que el desempeño
docente es positivo. Sin embargo, con respecto al desarrollo de las clases, se destaca la clase
magistral o expositiva. Por lo cual, mantienen una actitud negativa hacia este tipo de clase [11].
● Municipalidad de San Carlos: con sus limitaciones de acción contribuye con becas, educación no
formal, gestiones para la reparación de centros educativas, propuestas de creación de nuevos
centros y gestiones para asignación de docentes.
● Docentes de la localidad de San Carlos: se actualizan poco debido a que las principales
capacitaciones se ofrecen el área metropolitana y les es difícil trasladarse, los que desean
capacitarse dentro del cantón deben invertir por su cuenta, además, no todos los docentes aplican
lo aprendido dentro del aula [37].
● Carreras acreditadas: Buscan la excelencia en conjunto con sus estudiantes, egresados, empleadores
y profesores para mantener su certificado de calidad.

B. Económica
Según [12] en la zona Norte existen 13 colegios técnicos, de los cuales actualmente no se tiene
conocimiento acerca de los docentes de especialidades técnicas pero se tiene la percepción de la
Contraloría[37] acerca de la falta de capacitación que tienen los docentes de los colegios técnicos.

En la Zona Norte existe una asociación de empresas Tecnologías de Información y Comunicación


conocida como CETICZN en la que se encuentran afiliadas 12 empresas [38].
Presupuesto actual:
● En Costa Rica el gasto en educación, pasó de un 7,62% del producto interno bruto (PIB) en el 2017
a un 8% en el 2018 [13]. Pero a pesar de este incremento en [9] se señala que el MEP para el 2018
reducirá en un 45% las transferencias de dinero a las juntas de educación que se utilizarían para la
construcción, el mantenimiento y la adecuación de obras de infraestructura educativa.
● Las juntas reciben un porcentaje del presupuesto municipal, y estas realizan un presupuesto de
acuerdo con la información que se utiliza en el Plan anual de trabajo del centro educativo según se
indica en el artículo 65 del reglamento de juntas. Dicha junta deberá atender las necesidades y
prioridades del centro educativo y de la población estudiantil [14].

C. Social
El Sistema Costarricense de Información Jurídica cuenta con la ley 7794 y específicamente en el artículo
57 de dicha ley se menciona que los Concejos de Distrito poseen varias funciones entre las que se tiene el
de proponer ante el Concejo Municipal a los beneficiarios de becas de estudio, bonos de vivienda y de
alimentación, así como otras ayudas estatales (de esta misma naturaleza) que las instituciones pongan a
disposición de cada distrito. [39]

198
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Por otra parte dentro de los objetivos estratégicos de la Municipalidad de San Carlos está el desarrollo
económico y la política social local, en lo que respecta a este último la Municipalidad tiene como objetivo
el impulsar condiciones que inciden de manera positiva en la calidad de vida, buscando condiciones de
igualdad y equidad [11].
En los distritos más lejanos de la Zona Norte es muy frecuente que suceda que se den denuncias por
falta de educadores en los centros educativos, falta de interés, además de ausentismo después de un periodo
de tiempo determinado, y existen también denuncias de la sobrepoblación para los educadores en algunas
escuelas tal es el caso de [21].
En lo que respecta al nivel educativo en el plan de desarrollo Cantonal [11] se menciona que la diferencia
entre algunos cantones de la Zona Norte y el cantón de Escazú es muy significativo, en lo que respecta a la
“población entre 25 y 64 años que cuentan con primaria incompleta” Escazú tiene el valor más bajo
correspondiente a 8.5 mientras que los cantones de la zona Norte tienen los Chiles un 42.3, Upala un 32.8,
Guatuso un 32.1 y San Carlos un 26.1, adicionalmente se indica que en el rubro de “población entre 25 y
64 años con secundaria completa y más” Escazú tiene el más alto con un valor de 56.3 mientras que los
Chiles posee el más bajo con 14.5 y San Carlos tiene 24.6, y en la “escolaridad promedio de población entre
25 y 64 años” al igual que la anterior es Escazú el que cuenta con mayor valor el cual es de 11.2 y el menor
es los Chiles con un 5.8, lo que respecta a San Carlos tiene un 7.4.
D. Administrativo
El tema administrativo se divide en: (1) recurso humano, (2) capacidades de gestión. Los cuales se
detallan a continuación:
● La educación en el país es dirigida por el ministerio de Educación Pública (MEP) dividida en tres
viceministerios, desciende a direcciones regionales y circuitales [19]. La visión actual del
ministerio está enfocada en orientar la educación costarricense en una novedosa etapa de su
desarrollo [1]. La estructura y división del MEP contiene las distintas áreas y las funciones
específicas para cada una, con las cuales se puede lograr la educación que pretende el ministerio
[19].
● Costa Rica cuenta con 27 Direcciones Regionales de Educación, distribuidas en las diferentes
provincias del país. En el cantón de San Carlos se ubica una de ellas. En las cuales se pueden
realizar trámites administrativos, a partir del 2015 como parte del proceso de desconcentración que
promueve el Viceministerio Administrativo del (MEP) se amplían la cantidad de estos trámites
[20].
● La capacidad de gestión del MEP ha ido mejorando en el tiempo a pesar de tiene la planilla más
grande del país, con 79.823 funcionarios aproximadamente [9].
● La municipalidad de San Carlos en su organigrama [40], cuenta con dos departamentos uno en
Gestión Ambiental y otro en Desarrollo Social, los cuales imparten o gestionan educación informal
a poblaciones marginales o en riesgo social y centros en centros educativos.
● La municipalidad de San Carlos gestiona ante entes competentes las necesidades de educación,
docentes e infraestructura de centros educativos del cantón, tal información consta en el Plan de
Desarrollo Cantonal 2014 - 2024 y en los planes de desarrollo distritales.

E. Tecnológico
En 2017 se tenía previsto que para el 2018 se asignarían ₡3.774 millones adicionales para mejorar la
conectividad de los centros educativos y la utilización de fibra óptica, además el fondo para desarrollar
herramientas informáticas (las que permitan realizar trámites digitalmente) crecería en ₡1.268 millones [9]
En lo que respecta a la banda ancha en Costa Rica en el mes de agosto del 2018, se anuncia el proyecto
Red Educativa Bicentenario, dicho proyecto pretende que para el 2021 todos los centros educativos y
oficinas del MEP cuenten con una conexión a internet de fibra óptica de 10 Mbps [24].
La Fundación Omar Dengo en [21] señala que en Costa Rica para el año 2016 ya se contaba con más
de 7 millones de líneas celulares de las cuales más de 4 millones tienen acceso a internet.
En cuanto al uso de los celulares existe una normativa y según [17] que surgen del periodo de
gobernación del 2014-2018, el cual fomenta el uso de los dispositivos móviles, específicamente los
teléfonos celulares inteligentes propiedad de los estudiantes en el centro educativo, con el fin de crear las

199
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

condiciones necesarias para potenciar los procesos de aprendizaje y de la convivencia tanto dentro como
fuera del aula.
VII. CONCLUSIONES
Uno de los pilares de las ciudades inteligentes es la gente, y cuando nos referimos a las personas
debemos saber que abarcan temas de calidad de vida, educación, trabajo, programas de alfabetismo digital,
mejores servicios de salud, planificación habitacional, acceso a las TIC´s, etc.
Un aspecto importante a tener en cuenta es que se menciona que “Hay un vínculo entre personas que
no asistieron a la escuela y condiciones como pobreza, desempleo y trabajos mal remunerados” [12], por
lo que si se quiere que un país persevere deberá contemplar la importancia de la educación y se comprenderá
la necesidad de insertar a los niños y jóvenes en el sistema educativo.
La educación en Costa Rica cuenta con gran apoyo de parte del gobierno, ya que existen varios
proyectos en vigencia o en proceso que son para brindar los recursos necesarios para tener educación
inteligente pero hay varias políticas que actualmente no se cumplen o ejecutan, por lo que se requeriría
hacer cambios en aspectos políticos.
Si se pretende convertir a una región o área en ciudad inteligente o contar con educación inteligente se
requiere de apoyo de la entidad política correspondiente, se puede buscar apoyo en empresas líderes en
tecnología en el mercado, hay que contar con presupuesto. Es decir, se requiere realizar un análisis en
aspectos de política, economía, social, administrativa y tecnológica para poder realizar una propuesta de
implementación y gestión atinente.
VIII. AGRADECIMIENTOS
Se le agradece al Dr. Roberto Cortés Morales profesor del curso Estrategias de Desarrollo de Gobierno
Digital en el 2018 de la maestría de Computación con énfasis en Sistemas de Información impartida en el
Tecnológico de Costa Rica, en el cual se profundizó sobre el tema de ciudades inteligentes, lo que dio
origen al contenido de esta ponencia.
IX. REFERENCIAS BIBLIOGRÁFICAS
[1] LA Network.(2018). Cuáles son los seis pilares de una ciudad inteligente (smart city). Disponible en [Link]
son-los-seis-pilares-de-una-ciudad-inteligente-smart-city/
[2] Mah, Sangyoung. (June 2017). Cómo Elaborar El Modelo De Educación Smart Del Español. European Scientific Journal
/SPECIAL/ edition ISSN: 1857 – 7881 (Print) e - ISSN 1857- 7431 [En línea]. Disponible en
[Link]
[3] Rueda-Rueda, Johan, AU - Manrique, Johana,AU - Cabrera Cruz, Jose. (2017). Internet de las Cosas en las Instituciones de
Educación Superior. ResearchGate [En línea]. Disponible en
[Link]
[4] Mendoza Vargas, F. D. (2017). Uso de simuladores de negocio como estrategia de aprendizaje adaptativo: una experiencia en
el aula. Revista Virtu@lmente, 5(2), 26-44. [En línea]. Disponible en
[Link]
[5] El país. (2016) Un caso de éxito: Incrementar las opciones de trabajo en San Quintín, Francia. [En línea]. Disponible en
[Link]
[6] La Nación. (2014) Educadores imparten clases sin refrescar conocimientos. Disponible en [Link]
pais/educacion/educadores-imparten-clases-sin-refrescar-conocimientos/SXCW3XJJXVBLBCJSUH6FCYBX6Q/story/
[7] San Carlos Digital.(2017). 34 centros educativos del cantón tienen faltante de educadores. Disponible en
[Link]
[8] MUNICIPALIDAD DE SAN CARLOS. Plan de Desarrollo Cantonal San Carlos 2008-2012. Disponible en
[Link]
[9] Estado de la educación, 2017. «[Link] » [En línea]. Disponible en
[Link]
[10] La Nación. (2016) La brecha digital. Disponible en: [Link]
digital/4654LMJVMBGGXMIPSU3JJPWYXU/story/
[11] M. d. S. Carlos, «[Link] [En línea]. Disponible en:
[Link]
%[Link].
[12] A. Barrantes, «La nación,» 4 Julio 2014. [En línea]. Disponible en: [Link]
estan-fuera-del-sistema-educativo/DXJLDHEF5JGUZN4XWRNWBXADBI/story/
[13] Ministerio de Educación Pública,«[Link] 2016. [En línea]. Disponible en:
[Link]
[14] Estado de la educación, 2017. «[Link] » [En línea]. Disponible en
[Link]
[15] Semanario del Norte, 2017. « [Link] [En línea]. Disponible en [Link]
ciudad-quesada-tendria-internet-gratuito-de-60-megas/

200
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[16] Semanario del Norte, 2016. « [Link] [En línea]. Disponible en [Link]
busca-llevar-internet-gratis-a-10-distritos-de-san-carlos/
[17] Semanario del Norte, 2016. « [Link] [En línea]. Disponible en [Link]
1600-familias-nortenas-de-bajos-recursos-recibiran-computadora-con-acceso-a-internet/
[18] Fundación Omar Dengo, 2017. «[Link] [En línea]. Disponible en
[Link]
[19] Estado de la nación. (2013). Atlas de la educación costarricense, un enfoque territorial de su evolución y su estado actual mayo
2013. Disponible en: [Link]
[20] Alvarado, Muñoz Ma. Daniela, Nicaragua Rosa. (2013). e-Ciencias de la Información UCR. Un acercamiento a la brecha digital
en Costa Rica desde el punto de vista del acceso, la conectividad y la alfabetización digital. ISSN electrónico: 1659-4142
Disponible en: [Link]
[21] Agencia para el Desarrollo de la Zona Norte. «[Link] [En línea]. Disponible en [Link]
[22] D. Falck, M. Kluttig y C. Peirano, TIC y Educación. La experiencia de los mejores: Corea, Finlandia y Singapur, Santillana,
2013. [En línea]. Disponible en: [Link]
Educaci%C3%B3n-y-Tecnolog%C3%[Link]
[23] [Link]í. Las TIC en Finlandia, 2014. [En línea]. Disponible en: [Link]
[24] Switzerland Global Enterprice. [En línea]. Disponible en: [Link]
emplazamiento-para-las-tic
[25] M. Nuñez. Algunas lecciones de Singapur (y no solo en educación), 2017. [En línea]. Disponible en:
[Link]
[26] B. Guillen. La escuela inteligente despega en España, 2016. [En línea]. Disponible en:
[Link]
[27] J. Lopez. Atascos viales llevan a Santo Domingo a ser una smart city, 2017. [En línea]. Disponible en:
[Link]
[28] Portal oficial del estado Dominicano. Educación electrónica y TIC, 2018. [En línea]. Disponible en:
[Link]
[29] Centro de Innovación del Sector Público de PwC e IE Business School. Smart Cities. La transformación digital de las ciudades,
2015. [En línea]. Disponible en: [Link]
[Link]
[30] M. Area, C. Alonso, J. Correa, M. Moral, J. Pons, J. Paredes, J. Peirats, A. Sanabria, A. San Martín y J. Valverde. Las políticas
educativas TIC en España después del Programa Escuela 2.0: las tendencias que emergen, 2014. [En línea]. Disponible en:
[Link]
[31] Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado Departamento de Proyectos Europeos. Resumen
Informes Insight 2011. Educación y TIC en 14 países, 2012 [En línea]. Disponible en:
[Link]
NTEF_2012.pdf
[32] Telemetrik. Colombia se consolida cada vez más en las Smart Cities, 2018. [En línea]. Disponible en:
[Link]
[33] L. Rojas. Una propuesta en educación inteligente para los colegios del país, 2014. [En línea]. Disponible en:
[Link]
[34] Ministerio de la educación. [En línea]. Disponible en: [Link]
[35] La Nación. (2018). Contraloría: Patronos incurren en gastos extra por deficiente formación de técnicos en INA y MEP.
Disponible en: [Link]
por/TEUGONPZ6ZFWBEY5RO5L5CZHFM/story/
[36] NetPartner. (2017). Beneficios del microlearning en el aprendizaje corporativo. [En línea]. Disponible en
[Link]
[37] Susana Trabaldo, Virginia Mendizábal, Marcela Gonzalez Rozada . MICROLEARNING: EXPERIENCIAS REALES DE
APRENDIZAJE PERSONALIZADO, RAPIDO Y UBICUO. [En línea]. Disponible en
[Link]
[38] L. Rodriguez, «Ministerio de Educación Pública,» 16 diciembre 2016. [En línea]. Disponible en:
[Link]
[39] Fundación Omar Dengo. «[Link] [En línea]. Disponible en
[Link]
[40] [Link]. Educación en Viena, 2009. [En línea]. Disponible en:
[Link]

201
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Educación tecnológica para el desarrollo


Robótica en la escuela como propuesta educativa situada

Technological education for development


Robotics in the school as a contextualized educational proposal

Silvina Beatriz Barroso


Universidad Nacional de Río Cuarto. Argentina
silvina_barroso@[Link]

Alicia sposetti de Croatto


Asociación Galileo Galilei. Argentina
sposetti@[Link]

Resumen— En la presente comunicación se expondrán los principios pedagógicos y se explicará la propuesta de


acción de un proyecto que incorpora la robótica en las aulas de una escuela del interior pampeano de la
República Argentina (ciudad de Río Cuarto- Córdoba, Argentina). Desde el enfoque de la Ciencia, Tecnología
y Sociedad (CTS) se propone hacer explícitas las decisiones de gestión educativa en proyectos institucionales que
piensen a la educación inicial, primaria y secundaria en el marco del desarrollo de la región. La propuesta de
enseñanza de robótica en la escuela dialoga con las líneas de desarrollo tecnológico que las autoridades de la
provincia de Córdoba, las municipalidades del Gran Río Cuarto, la Universidad Nacional de Río Cuarto y otros
agentes no gubernamentales, desde los que se ha proyectado la Mesa TIC del Gran Río Cuarto, destinada a
promover desarrollos tecnológicos desde tres ejes centrales: gubernamental, educativo y productivo. Como
escuela del nivel secundario con fines claramente propedéuticos, la formación en tecnología para el desarrollo
se vuelve prioritario en su agenda, lo que demanda proyectos educativos innovadores para el mejoramiento de
la enseñanza y para la generación de una masa crítica con vocación tecnológica capaz de pensar las implicancias
sociales del conocimiento. Para esta comunicación es expondrá la experiencia en un 6° año del secundario del
Instituto Privado Galileo Galilei.

Educación tecnológica; desarrollo regional; robótica; compromiso social.


Abstract—In the present work the pedagogical principles will be exposed and the proposal of action of a project
that incorporates the robotics in the classrooms of a school of the Pampas interior of the Argentine Republic will
be explained (city of Río Cuarto-Córdoba, Argentina). From the Science, Technology and Society (CTS)
approach, it is proposed to make explicit the education management decisions in institutional projects that
thinking about initial, primary and secondary education within the framework of the development of the region.
The proposal of teaching robotics in the school dialogues with the lines of technological development that the
authorities of the province of Córdoba, the municipalities of the Gran Río Cuarto, the National University of
Río Cuarto and other non-governmental agents, from which it has been projected the ICT Table of the Gran
Río Cuarto, destined to promote technological developments from three central axes: governmental, educational
and productive. As a secondary school with clearly propaedeutic aims, training in technology for development
becomes a priority in its order paper, which demands innovative educajjtional projects for the improvement of
teaching and for the generation of a critical mass with a technological vocation capable of thinking the social
implications of knowledge. For this communication, the experience in a 6th year of the secondary of the Galileo
Galilei Private Institute will be presented.

Technologic education; regional development; robotics; social commitment.

I. INTRODUCCIÓN
La presente comunicación se propone dar cuenta, en principio, de una experiencia de aula basada en el
proyecto educativo “Robótica en la escuela: tecnología como mediación pedagógica e innovación curricular”

202
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

que comenzó a desarrollarse en 2018 en el Instituto Privado Adscripto Galileo Galilei de la ciudad de Río
Cuarto, Córdoba, Argentina.
El proyecto se enmarca en una política de gestión educativa iniciada en 2009 que piensa la tecnología
como contenido a enseñar, por un lado, pero fundamentalmente como mediación pedagógica para la
enseñanza. En tanto dispositivo de mediación pedagógica, la tecnología emergente interpela a los modos de
la pedagogía tradicional y propone el desarrollo de marcos reflexivos y críticos para pedagogías emergentes
[1] que articulen posiciones y reflexiones situadas a la enseñanza de contenidos. Por posiciones y reflexiones
situadas entendemos la “mirada” puesta en los procesos de construcción de conocimientos contextualizadas;
que puedan articularse con las posiciones de sujetos de conocimiento para desempeñarse no exclusivamente
en el ámbito académico (mirada intra-academicista) sino para el desempeño en el mundo socio-cultural
(mirada socio-académico-contextual) que ancla sus problemáticas en la ciudad y región, en el aquí y ahora
en vistas al futuro. Por otro lado, el diseño de propuestas educativas ancladas en el modelo de enseñanza
situada implica un cambio de paradigma centrado en los estudiantes como sujetos activos de sus aprendizajes,
en sus motivaciones e intereses, donde aprender y hacer son acciones inseparables coherentes con prácticas
relevantes socio-cultural y comunitariamente [2]
En ese sentido, pensar la enseñanza situada, específicamente en el campo de la tecnología, implica diseñar
proyectos de aula que recuperen el trabajo en proyectos, la organización del currículum escolar por
problemas, el abordaje inter y multi disciplinar, entre otras metodologías de enseñanzas y aprendizajes
alternativas a la tradicional organización del currículum por contenidos disciplinares. En este paradigma, las
políticas de gestión de la enseñanza asume la responsabilidad de pensar qué desafíos del mundo social
interpelan la producción de conocimiento para dar repuestas a los mismos.
Desde este modelo curricular, la institución educativa Galileo Galilei aborda la enseñanza de la robótica
en las aulas desde el enfoque CTS (Ciencia, Tecnología y Sociedad) en su vertiente europea; es decir, aquella
que aborda el conocimiento científico y tecnológico en un diálogo necesario con los enfoques socio-
históricos [3]. Los desarrollos en el campo de la ciencia y la tecnología no estarían intrínsecamente
vinculados al devenir interno de las mismas, sino que emergen en el campo curricular en una necesaria
articulación con las necesidades, inquietudes, valoraciones, proyecciones del mundo social atravesado por la
reflexión socio-crítica; de todas maneras, los enfoques éticos y políticos de la tradición norteamericana de
CTS también forman parte de las discusiones teóricas y filosóficas en el abordaje de la enseñanza de la
tecnología en la escuela. La propuesta articula los posicionamientos que piensan la ciencia y la tecnología
desde el campo social y cultural en el que se anclan y se ponen al servicio sus desarrollos desde una mirada
crítica y de vigilancia ética que se proponga como control de sus incidencias e implicancias en la vida social.
Para el proyecto “Robótica en la escuela: tecnología como mediación pedagógica e innovación
curricular” se plantea, en su misma fundamentación, la articulación múltiple y necesaria entre diferentes
sectores sociales: los municipios del Gran Río Cuarto (Río Cuarto, Holmberg y Las Higueras), la
Universidad, el Cluster Tecnológico Río Cuarto, el Ministerio de Ciencia y Tecnología de la Provincia de
Córdoba, la Mesa TIC del Gran Río Cuarto, entre otros. Todos estos sectores vienen trabajando para
“impulsar el desarrollo y estimular el crecimiento regional, dinamizando y articulando la oferta y demanda
tecnológica a través de la coordinación de acciones públicas, privadas, académicas y científicas para lograr
la inserción de empresas locales y regionales en la economía nacional e internacional en el ámbito de la
tecnología de la información, las telecomunicaciones y afines” [4].
En el marco de los objetivos fijados a partir de las articulaciones múltiples para el desarrollo de la región
desde la proyección tecnológica, es que la escuela se define como actor fundamental del entramado político,
académico, industrial y empresarial. Los estudiantes, al hacer objeto de sus reflexiones la posibilidad de
intervenir en el campo de lo social desde el desarrollo tecnológico, no solamente están formándose en una
perspectiva científico-tecnológica, sino que están generando conciencia sobre la importancia política de la
participación como ciudadanos en las definiciones del desarrollo del campo. Se propone una reflexión que
se contrapone a las posturas que piensan el aislacionismo de la ciencia y la tecnología para religarlas al
entramado social.

II. ENTRAMADO TEÓRICO


A. CTS como enfoque para la enseñanza de la tecnología en la escuela
Los desarrollos en el campo de la CTS permiten fundamentar el abordaje de la enseñanza de la tecnología,
en este caso la robótica, en la escuela desde la perspectiva socio-crítica que define a la institución.
Carlos Osorio define que “Ciencia, Tecnología y Sociedad, CTS, corresponde al nombre que se le ha
venido dando a una línea de trabajo académico e investigativo, que tiene por objeto preguntarse por la
naturaleza social del conocimiento científico-tecnológico y sus incidencias en los diferentes ámbitos
económicos, sociales, ambientales y culturales de las sociedades occidentales (principalmente). A los

203
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

estudios CTS también se les conoce como estudios sociales de la ciencia y la tecnología” [5] y es desde esta
definición que la escuela se posiciona para abordar sus propuestas de enseñanza de la ciencia y la tecnología,
en este caso particular el proyecto de robótica en la escolaridad secundaria, aunque se implementa su
enseñanza en los demás niveles (Inicial y Primario).
La emergencia de un enfoque CTS se origina en un primer posicionamiento crítico reactivo a las
consecuencias de los avances científicos y tecnológicos sobre la calidad de vida de las personas en tanto
individuos y como sociedades, fundamentalmente promovido por el uso bélico, por la contaminación
ambiental, por las catástrofes producto de accidentes en plantas nucleares, entre las más fundamentales.
Dicho posicionamiento toma la forma de movimiento radical contra la ciencia y la tecnología a mediados
del siglo XX. La preocupación que emerge en el campo de lo social a través de colectivos, más o menos
radicalizados, como el hipismo y los movimientos ambientalistas, es apropiada por la academia, sin perder
la capacidad crítica, en un abordaje que rearticula los desarrollos en el campo de la ciencia y la tecnología
con los aportes de la historia, la filosofía, la sociología, la economía social, el derecho, entre otras ciencias
sociales y humanas, e instala en el centro de las discusiones, el imperativo de la participación política y
democrática del ciudadano en las definiciones de la agenda de ciencia y tecnología.
Es desde estas perspectivas que la alfabetización científica y tecnológica con anclaje social y
democratizador se instala en la agenda de la CTS que fija tres ámbitos: el de la investigación para un
desarrollo del conocimiento científico y tecnológico contextualizado socialmente, el de las políticas de
ciencia y tecnología con participación ciudadana y de la educación para integrar ambos ámbitos:
investigación y política. En el campo educativo, la perspectiva CTS forma parte de diferentes programas de
la educación superior para la enseñanza de la ciencia y la tecnología con el objetivo de formar científicos y
profesionales menos tecnócratas y más atentos a la articulación entre conocimiento científico y tecnológico
con la vida social dentro de un campo de tensiones, negociaciones y construcción de sentidos. En las
propuestas curriculares de la educación secundaria, la enseñanza de la ciencia y la tecnología ha seguido
anclada a los espacios curriculares disciplinares donde el abordaje desde una perspectiva que incluya lo social
no ha estado presente. Por otro lado, en las escuelas, la perspectiva ética de una evaluación de las
consecuencias sociales de los desarrollos científicos y tecnológicos ingresa desde el abordaje de las ciencias
sociales formando escindidamente en ciencias sociales y en ciencias exactas, físico, químicas y naturales. Es
recién desde los nuevos modelos curriculares que habilita aulas flexibles e interdisciplinares que es posible
trabajar en propuestas integrativas desde una perspectiva política de participación ciudadana en la agenda
del desarrollo de ciencia y tecnología contextualizada en la región.
B. Aprendizajes basados en proyectos
La metodología de proyectos para trabajar el currículo no es un concepto nuevo y muchos docentes la
han incorporado con frecuencia a sus programaciones, en forma puntual o como una forma de organizar el
currículo y trabajar a lo largo del año. Tiene sus raíces en la aproximación constructivista que evolucionó a
partir de los trabajos de psicólogos y educadores como Vygotsky, Bruner, Piaget o Dewey. El
constructivismo mira el aprendizaje como el resultado de construcciones mentales; es decir, que los
estudiantes aprenden construyendo nuevas ideas o conceptos, basándose en sus conocimientos actuales y
previos.
El aprendizaje basado en proyectos (ABP) es una estrategia educativa integral, busca la colaboración y
la participación de los estudiantes en las diferentes fases de desarrollo del mismo y articula aportes de las
diferentes disciplinas en torno al tema de trabajo elegido convirtiéndose éste en una parte importante del
proceso de aprendizaje. Se plantean actividades que se adaptan a los intereses de los alumnos, se respetan
las individualidades y las habilidades diferentes y cada uno aporta a la actividad propuesta [6].
El trabajo por proyecto [7] es más valioso en la sociedad actual en la que se trabaja con grupos de
alumnos que tienen diferentes estilos de aprendizaje, antecedentes culturales y niveles de habilidad
diferenciadas. Un enfoque de enseñanza uniforme no ayuda a que todos los estudiantes alcancen estándares
altos; mientras que uno basado en proyectos, construye sobre las fortalezas individuales de los estudiantes y
les permite explorar sus áreas de interés dentro del marco de un currículo establecido. Desde este modelo
curricular, la escuela asume el compromiso de formar estudiantes con competencias basadas en la
cooperación, en la capacidad de leer su realidad sociocultural, en las potencialidades de la experiencia en
diálogo con la reflexión desde prácticas situadas y auténticas en un marco de problemáticas de entornos no
sólo académicos sino sociales [8]
Las ideas que surgen a partir de acontecimientos y experiencias reales, que les interesan a los alumnos,
darán lugar a respuestas y conclusiones reales a problemáticas reales de su propio contexto socio-cultural y
serán más difíciles de olvidar. Además, los alumnos encuentran los proyectos divertidos, motivadores y
desafiantes porque desempeñan en ellos un papel activo tanto en la elección del tema a investigar como en
todo el proceso de planificación y desarrollo. Del mismo modo en que se redimensionan los problemas
cognitivos y su abordaje, esta metodología refigura los modos tradicionales de evaluación ya que el proyecto
no se vincula exclusivamente a un tópico o tema de un programa sino que implica una visión sistémica,

204
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

interrelacionada y multidemensional de los problemas planteados y su evaluación deberá contemplar el


desarrollo de competencias múltiples para la delimitación y organización de las tareas, para la aplicación de
conocimientos, para la escritura de planes, protocolos, resultados, para la autoevaluación reflexiva.
III. PROYECTO DE ROBÓTICA EN LA ESCUELA
Si bien la escuela en la que se desarrolla la propuesta inició una transformación de infraestructura y
curricular atendiendo el desarrollo tecnológico en 2009, la robótica ingresa como línea de abordaje curricular
en 2017 en la cátedra matemáticas. En 2018, se elabora el proyecto de referencia que es elevado a inspección
regional y comienza a implementarse en todos los niveles de la escolaridad.
Para esta instancia se describirá una de las propuestas llevada a cabo por estudiantes del nivel secundario,
específicamente el proyecto de trabajo en 6to. Año A (Orientación en Ciencias Naturales) y que tuvo como
objetivo final la elaboración de una “pulsera inteligente para hipoacúsicos”.
A. Decisiones institucionales y gestión académica para la implementación de la robótica
En el marco de las decisiones institucionales para llevar adelante proyectos que se organicen a partir de
la tecnología, la escuela ha ido perfilando una política de gestión que tiene dos líneas de desarrollo: por un
lado, la progresiva tecnologización de la infraestructura. Desde ese posicionamiento, desde 2009, se ha
equipado a la institución para transformar el espacio físico del aula tradicional en aulas inteligentes,
equipadas con conectividad, monocañones, equipos de audio, pizarras digitales interactivas o SmartTV con
los que los docentes estimulan su propia creatividad y la de los estudiantes diseñando entornos dinámicos en
los que la experiencia didáctica del docente se conjuga con las múltiples posibilidades de la tecnología digital
y el capital lúdico-creativo de los estudiantes. En 2018 se implementó un Kit de Robótica a modo de prueba
piloto para incorporar, en 2019, 15 kits de robótica educativa “EduKit 10” desarrollado por un grupo de
ingenieros en Telecomunicaciones de la UNRC quienes tienen a su cargo la primera alfabetización en
robótica tanto para docentes como para estudiantes en la institución.
La otra línea necesaria en la gestión educativa se vincula a la formación docente. Para el desarrollo de la
robótica como uno de los ejes transversales de la educación inicial, primaria y secundaria, se diseñó un plan
de formación a mediano plazo para el acompañamiento de los proyectos institucionales del área. Una de las
acciones fundamentales es el nombramiento de un asistente técnico con formación en el área tecnológica y
pedagógica para co-coordinar junto a los docentes disciplinares los proyectos. Dos docentes completaron la
formación en el marco de un Taller de formación en robótica I organizado por el Ministerio de educación de
la Nación y destinado a docentes de todos los niveles del sistema educativo. En 2018, los estudiantes y
docentes de los últimos años de secundaria participaron de los talleres de robótica organizados por el área de
vinculación tecnológica de la UNRC en los que se familiarizaron con ideas básicas de programación a partir
de una placa construida desde Arduino. En 2019 se continúa con la formación docente a cargo del
Laboratorio de Sistemas Embebidos (LaSEm) y del Grupo de Sistemas de Tiempo real (GSTR) del
Departamento de Telecomunicaciones de la Facultad de Ingeniería de la UNRC a partir de un convenio de
cooperación y reciprocidad firmado entre ambas instituciones. Dicha formación tiene como eje proporcionar
herramientas de aprendizaje a partir de Sistemas Embebidos, más precisamente con plataformas Arduino.
Los avances de la tecnología desafían la gestión de políticas de formación docente ya que, sin expertos
en ciencia y tecnología, su inclusión en las propuestas curriculares se vuelve muy difícil e igualmente
frustrante. De allí que la política institucional aborda tanto la promoción de innovaciones curriculares y la
formación docente como parte de la misma propuesta, acompañados por la actualización tecnológica.
B. Contextualización de la propuesta
El proyecto de robótica “Pulsera inteligente para hipoacúsicos” se origina a partir de la inquietud por
participar en la 50° Feria de Ciencia y Tecnología del Ministerio de Educación y el Ministerio de Ciencia y
Tecnología de la Provincia de Córdoba - Argentina. Desde la cátedra de matemáticas y en articulación con
los espacios curriculares: Filosofía, Lengua y Literatura, Metodología de Investigación, Tecnología y Ética,
se organizó la propuesta como un proyecto de investigación que tuviera como resultado la elaboración de un
dispositivo capaz de ayudar a la calidad de vida de personas hipoacúsicas.
Se partió de la pregunta: ¿en qué puede contribuir la ciencia y la tecnología para mejorar la vida de las
personas con disminución auditiva?, se discutieron diferentes propuestas hasta acordar en el equipo que
desde el campo de la robótica se podía elaborar un dispositivo capaz de ofrecer alguna solución a algunos de
los problemas de la cotidianidad de personas con discapacidad auditiva.
Desde matemáticas se abordaron los contenidos de acústica y trigonometría además de los elementos
básicos de programación a partir de los Kits de robótica y las placas Arduino.
Desde Lengua y Literatura se trabajó con la escritura del proyecto, de los instrumentos para recolección
de datos y de los informes en tanto textos académicos.

205
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Desde Metodología de Investigación se abordó la elaboración de un proyecto de investigación aplicada,


la construcción del problema, se diseñaron las herramientas metodológicas para recolección de datos en
relación a las necesidades de los sujetos con discapacidad auditiva, a los fines de guiar el proceso de
investigación y de su presentación al comité organizador de la Feria de las Ciencias.
Desde Tecnología se apoyó en la fase de implementación del proyecto, el diseño del prototipo en 3D, las
pruebas con materiales, entre otros.
Desde Ética se desarrollaron las discusiones sobre el rol de la ciencia y la tecnología en la sociedad y el
impacto en la vida cotidiana para ayudar a la calidad de vida de los sujetos.
C. Participantes del proyecto
En el proyecto participaron 17 estudiantes de 6to. año (de entre 17 y 18 años), 6 docentes y un asesor
técnico del Instituto Privado galileo Galilei.
D. El proyecto en el aula
Previo al diseño de la propuesta, a comienzo del año lectivo, los estudiantes participaron de los talleres
de formación organizados por el área de vinculación tecnológica de la UNRC. A partir de esa instancia de
formación, comienza a generarse el interés por usar conocimientos de robótica para abordar problemáticas
sociales. Se propone trabajar a partir de un proyecto de investigación como formato didáctico y se elabora
una propuesta interdisciplinaria.
Se desarrollaron distintas instancias de discusión hasta recortar una problemática real a ser abordada: las
dificultades cotidianas de las personas con discapacidad auditiva. Una vez recortado el ámbito de la
indagación se elaboraron los instrumentos para recolectar información al respecto. Se realizaron entrevistas
a la directora y docentes del C.A.D.A (Centro de Atención para Discapacitados Auditivos de la ciudad de
Río Cuarto) se identificaron diferentes obstáculos cotidianos que dificultan la vida a las personas con
hipoacusia. Una vez identificados estas dificultades se indagó sobre dispositivos electrónicos destinados a
mejorar la calidad de vida de las personas con esta discapacidad y se acordó trabajar en el diseño y
elaboración de un prototipo de una pulsera que permitiera a las personas con hipoacusia recibir una alerta
cuando sonara un timbre en su domicilio o una alarma despertador a partir de señales visuales o táctiles (luz
y vibración).
Con la guía de los docentes en los diferentes campos elaboraron el proyecto, recolectaron la información
en el terreno, sistematizaron las indagaciones sobre antecedentes, profundizaron conocimientos en
matemáticas, recibieron formación en nociones básicas de programación a partir del kit de robótica y del
hardware libre basado en Arduino (desarrollado por la Cooperativa IT10 de Río Cuarto) y de diseño.
Para la creación del dispositivo se siguieron los siguientes pasos:
1- Diseño
2- Desarrollo: construcción de la estructura física, desarrollo de la programación del software, ensamble
de los dispositivos electrónicos
3- Impresión 3D
Para el desarrollo informático se usaron 3 elementos esenciales:
1- Un radiotransmisor y receptor 5v
2- Una placa Arduino mini (3x18x16mm)
3- Un micromotor vibrador 5v
Los materiales utilizados para la creación de la pulsera inteligente fueron: acrílico, malla, corona, bata,
fondo o tapa, junta de cristal, silicona o poliuretano, luz led, motor vibrador, entrada USB, placa Arduino
mini, baterías, radiotransmisor, transformador de energía, timbre.
El proyecto fue presentado y defendido oralmente en la 50° Feria de Ciencias y Tecnología- Córdoba
2018 obteniendo un puntaje de 97 sobre 130. Las valoraciones del proyecto destacaron “Muy buen registro
realizado en el cuaderno de campo. Se promueve una forma diferente de aprender contenidos curriculares a
través de un proyecto innovador. Lograron generar un prototipo del dispositivo diseñado y en microescala
pudieron mostrar cómo funciona el mismo”.
Posterior a la 50° Feria de Ciencias y Tecnologías, los estudiantes participaron como veedores, no en la
presentación de su proyecto, en la Hackathon del Gran Río Cuarto en el marco de la Semana Innovadora
(tercera edición) organizadas por la mesa TIC del Gran Río Cuarto, el Cluster Tecnológico Río Cuarto, la
UNRC y el Ministerio de Ciencia y Tecnología de la Provincia de Córdoba. Todas experiencias de diálogo
entre la ciencia, la tecnología y el compromiso social.

206
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Más allá de las apreciaciones en el marco de la Feria de Ciencias y Tecnología, el proyecto fue valorado
por los actores institucionales como relevante y fundante de un trabajo que se proyecta institucionalmente
para el desarrollo de aprendizajes en robótica en articulación con múltiples abordajes disciplinares integrados
y en el formato curricular de ABP desde una perspectiva CTS.
Lo más relevante de la evaluación del proyecto se vincula a las proyecciones institucionales para el
abordaje del currículo desde la perspectiva de ABP para la enseñanza y los aprendizajes en robótica, la
relevancia está dada por las implicancias a nivel motivacional de los estudiantes en tanto evaluadores de sus
propios aprendizajes situados, de sus competencias para la organización en tanto grupo para la resolución de
las problemáticas vinculados a la situación abordada, para la elaboración de las comunicaciones académicas
escritas de las diferentes fases del proyecto; sobre las competencias vinculadas a la oralidad en la
presentación y defensa, entre otras.
Los estudiantes, en primer lugar, y los equipos docentes han evaluado la experiencia de trabajo desde el
ABP de robótica desafiante, fundamentalmente, por las articulaciones múltiples que convoca: entre los
docentes de las distintas disciplinas, entre las propuestas curricularizadas de los programas de contenidos
mínimos prescriptos por la jurisdicción para las áreas y asignaturas, entre los grupos de estudiantes para las
definiciones desde el problema, su organización su abordaje y resolución, por la horizontalidad en los roles
ya que docentes y estudiantes asumen en diferentes momentos el liderazgo y guía de las etapas del proyecto.
Por otra parte, la robótica en sí misma es un área que despierta inquietudes, por lo desconocido de este ámbito
de las ciencias y la tecnología, y emociones cuando se logran concretar las respuestas exitosas de acuerdo a
lo programado; configura un espacio de aprendizajes múltiples y conjuntos de los actores de la institución.
Por otra parte, la posibilidad de atender una problemática social de relevancia sociocomunitaria desde los
proyectos escolares posiciona a la institución escolar y a sus actores en un escenario de cooperación, diálogo
y desarrollo con otras instituciones de la región, fundamentalmente la universidad como ámbito académico
y los municipios y organizaciones no gubernamentales como ámbitos socio-económico-productivos
constituyendo macro proyectos que dotan de sentido al hacer y al saber de las aulas de la escolaridad de los
distintos niveles educativos.
IV. CONCLUSIONES
La propuesta de abordaje institucional de la robótica como modo de promover la vocación científica y
tecnológica con sentido social se constituye en una línea de trabajo que articula concepciones de educación,
de aprendizaje y de enseñanza por un lado y de desarrollo regional por el otro. Interpela decisiones de gestión
educativa que promuevan la participación de los actores escolares en las agendas políticas de la ciudad y su
región a partir de diseñar proyectos educativos en consonancia con las proyecciones económicas,
industriales, académicas, científicas y tecnológicas desde las que la ciudadanía se proyecta a través de
articulaciones entre diferentes sectores.
La organización de las actividades escolares en la construcción de conocimiento situado a partir de un
currículo cuyas propuestas de aula se basen en ABP es un camino que se ha comenzado a transitar y del que
el proyecto de robótica presentado es un ejemplo.
La misión de una escuela con fines propedéuticos involucra en el contexto actual incentivar la creatividad
aplicada al arte y al arte de la ciencia y la tecnología; desafía a que los estudiantes hagan lecturas complejas
del mundo profesional/laboral en el que desempeñarán su actuación como agentes comprometidos con la
transformación de una sociedad que demanda innovaciones constantes en el marco de una ecología de
saberes que articule la lógica hegemónica de desarrollo con el compromiso social y comunitario que hagan
la vida de los pueblos más libres, más sanas, más felices.

V. AGRADECIMIENTOS
Agradecemos a los estudiantes y docentes que participaron en este proyecto, fundamentalmente a la Prof.
Mariana Terzo, responsable del mismo, y a Mauro Comelli, asesor tecnológico, quienes pergeñaron,
diseñaron y desarrollaron como coordinadores el trabajo en el aula. Agradecemos al personal directivo y
administrativo del Instituto Privado Galileo Galilei por todo el compromiso y colaboración para la
implementación de propuestas innovadoras. Agrademos a los responsables del equipo de Vinculación
Tecnológica de la UNRC, Pedro Ducanto y Ariel Ferreyra por el apoyo institucional en las instancias de
formación y consulta que requirió este proyecto.
VI. REFERENCIAS BIBLIOGRÁFICAS
[1] J. Adell y L. Castañeda, “Tecnologías emergentes, ¿pedagogías emergentes?”, en Tendencias emergentes en educación con TIC,
J. Hernández, M. Pennesi, D. Sobrino y A. Vázquez (Coord.)Asociación Espiral Educación y tecnología. Barcelona. 2012. pp.
13-32
[2] F. Díaz Barriga Arceo, Enseñanza situada: vínculo entre la escuela y la vida, Mc Graw Hill Interamericana, 2006, Ciudad de
México, México.

207
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[3] M. Medina y J. Sanmartín (eds.) Ciencia, tecnología y sociedad: estudios interdisciplinares en la universidad, en la educación y
en la gestión pública, Antrophos, 1990, Barcelona, España.
[4] Cluster tecnológico Río Cuarto, [Link]
[5] C. Osorio, La educación científica y tecnológica desde el enfoque en ciencia, tecnología y sociedad”, en Revista Iberoamericana,
N° 28, pp. 61-81, enero-abril 2002, Chile.
[6] J. Martí, M. Heydrich, M. Rojas y A. Hernández, “Aprendizaje basado en proyectos: una experiencia de innovción docente” en
Revista Universidad EAFIT, Vol. 46, N° 148, abril, mayo, junio de 2010, La Habana, Cuba
[7] R. Otegui,Hay un solo camino, la educación, Compilación a cargo de Fundación Noble. Grupo Editorial Planeta, 2018,
C.A.B.A., Argentina
[8] F. Díaz Barriga Arceo, “La conducción de la enseñanza mediante proyectos situados” en Enseñanza situada: vínculo entre la
escuela y la vida, Mc Graw Hill Interamericana, 2006, Ciudad de México, México. Cap. 2, 29 -51

208
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Agentes Inteligentes en la Automatización


de actividades Docentes
Uso de Agentes Inteligentes y Bots para el paso de listado de asistencia en
aulas de clases universitarias

Intelligent Agents for the Automation of


Teachers activities
Use of Intelligent Agents and Bots for the roll call / list of assistance in
universities classrooms

José Manuel Inestroza Murillo, Ing. MSc.


Universidad Nacional Autónoma de Honduras (UNAH), Honduras
[Link]@[Link]

Resumen — Para promover un aprendizaje eficaz en las clases universitarias presenciales en Honduras se
requiere la asistencia diaria y constante de los estudiantes durante todo el periodo académico. Para aquellos
complejos físicos donde no se ha automatizado la asistencia de estudiantes mediante auto servicio a través de
tarjetas de identificación o con el uso de registro biométrico, el docente se sirve de medios manuales para cumplir
el registro y verificación de asistencia tomando tiempo de clase y de planificación. Haciendo uso de agentes
inteligentes y computación en la nube, este estudio experimenta un acercamiento como alternativa a la
automatización del registro y respaldo de la asistencia estudiantil integrando sistemas de información en la web,
dispositivos/apps móviles, sensores de cámara, chatterbots y lenguaje natural.

Agentes inteligentes; lenguaje natural; bots; automatización; lista de asistencia; sistemas de información;
computación en la nube.
Abstract — In order to promote effective learning in face-to-face university classes in Honduras, daily and
constant student attendance is required throughout the whole academic period. For those classes assigned spaces
where the attendance of students has not been automated through self-service identification using ID cards or
with the use of biometric registration, the teacher uses manual means to accomplish this registry and validation
of attendance which takes time from class and from the roadmap. Making use of intelligent agents and cloud
computing, this study experiments an approach as an alternative to the automation of registration of student
assistance integrating web information systems, mobile apps/devices, camera sensors, chatterbots and natural
language.

Intelligent agents; natural language, chat bots; automation; roll call; information systems; cloud computing.

I. INTRODUCCIÓN
El modelo de asistencia diaria de educación presencial basado en universidad [1] considera que cada
miembro de la clase debe seguir una línea de aprendizaje que toma a la clase magistral, las clases prácticas,
los laboratorios y talleres como la base de la activación del aprendizaje, donde todos los anteriores son
métodos de enseñanza que requieren apoyo presencial tanto de docentes como de estudiantes. Es por ello
que la academia universitaria debe hacer uso de mecanismos manuales o digitales para contabilizar dicha
asistencia con el propósito de medir, identificar, detectar, prevenir y actuar sobre puntos críticos como ser
fallos o ingresos tardíos al salón de clases sobre cada estudiante matriculado en la misma.

209
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Aunque existen otros factores asociados al aprendizaje, la presencia física del estudiante en clase
representa un paso en el seguimiento y comprensión de las temáticas de la materia. Es por ello que cada
estudiante universitario es responsable del desplazamiento y asistencia a cada asignatura bajo la cual se ha
matriculado en cada periodo académico, y es bajo este principio de la auto disciplina que se asumirá que
cada registro de asistencia representa al individuo como aquel interesado que pertenece y asiste a cada clase,
y no así únicamente como la marca de estudiante, hora y fecha dentro de un modelo de datos cualquiera.
Desde el punto de vista del docente, la administración del aula de clase representa un conjunto de tareas
pequeñas y acumulativas que requieren de la inversión de tiempo que no siempre pertenece o debe
pertenecer al tiempo de cátedra, y que por tanto requerirá la atención anterior o posterior de cada maestro
durante el resto del periodo académico para poder atender dichas actividades. Mediante observación es
posible identificar que la falta de automatización de tareas administrativas provoca mayor inversión de
tiempo al no disponer de herramientas por computadora que puedan asistir al docente a reducir el tiempo
de procesamiento de datos de las mismas.
La automatización de tareas refiere al uso de tecnologías de información que permitan a programas de
computadora realizar pequeñas actividades de forma secuencial o paralela en beneficio de la reducción de
tiempo y esfuerzo por parte de las personas que usan dicho software. Este estudio se enfoca en aplicar
tecnologías de información sobre la problemática de la asistencia de clase mediante el uso de la
computación desde un enfoque científico y práctico. La asistencia estudiantil es una variable
complementaria a un conjunto de elementos cuantificables y cualificables del sistema educativo que podrían
contribuir en un mejor desempeño docente (al reducir el tiempo invertido en las tareas administrativas y
mejorar el enfoque del catedrático sobre la entrega de valor), como también del desempeño estudiantil (al
medir de forma automática y con menor margen de error una de muchas variables de control).
Mediante experimentación se diseña un acercamiento para la automatización de la asistencia diaria de
estudiantes considerando la unificación de distintos componentes de software y de hardware, incluyendo
dispositivos móviles, Bots, agentes inteligentes, procesamiento de lenguaje natural y sistemas de
información (sistemas web, computación en la nube y bases de datos). Diseños posteriores a este
acercamiento de solución mediante experimentación podrían incluir componentes de procesamiento local,
procesamiento distribuido, computación visual, deep learning y machine learning.
II. ACERCAMIENTO A LA PROBLEMÁTICA
Como parte de las tareas administrativas de cada docente se encuentra el control histórico de la
asistencia de estudiantes bajo sus distintas secciones de clase. Cada docente posee “secciones” de clase que
están compuestas por un conjunto de estudiantes. La sección representa una instancia o ejemplar de una
clase o asignatura la cual ya posee estudiantes registrados o matriculados, mientras que la asignatura
representa el nivel abstracto o conceptual de la materia impartida.
En apoyo al proceso educativo, es significativo que cada docente y unidad académica deba conocer el
comportamiento de cada estudiante sobre varios aspectos del rendimiento disciplinario y académico. Para
ello el docente aplica mecanismos manuales para la captura de evidencia de asistencia de los estudiantes
sobre cada espacio de aprendizaje registrando en tiempo y forma los datos pertinentes de los estudiantes
involucrados. Dependiendo de la forma de aplicación de la lista de asistencia por parte de cada docente, en
el peor de los casos el catedrático tendrá una hoja de papel físico que contiene el listado de asistencia diario
por cada día de clase entregado.
Es valioso aclarar que la problemática que ataca este estudio no es sobre el uso de medios manuales
para registrar manualmente mediante puño y letra los datos personales de cada estudiante que asiste a clase
(que incluyen, pero no se limitan a su número de cuenta estudiantil, su nombre y firma), sino en su lugar,
la problemática es la forma en la que el docente está limitado a extraer los datos de la lista para su futuro
análisis y toma de decisiones. Por tanto, la problemática general es la falta de un medio automatizado para
la gestión, preservación, estudio y análisis de la asistencia que permita al docente o a las autoridades
académicas producir mejores en base a los datos recopilados de forma diaria y permanente de la asistencia
de los estudiantes.
Como un acercamiento de solución se experimenta con los agentes inteligentes, sistemas de
información, tecnología web (computación en la nube), dispositivos/apps móviles y Chatterbots para
diseñar un modelo que represente una solución implementable que hace uso de tecnologías de libre acceso
(bajo compra, alquiler o propiedad), considerando este estudio como de investigación, experimentación,
reflexión y opinión sobre la problemática.

210
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

III. EL PROCESO DE AUTOMATIZACIÓN USANDO AGENTES INTELIGENTES


A. Secuencia lógica de las acciones
A través de la ingeniería de software [2] es posible generar automatización de distintas tareas cotidianas
y especializadas que permiten reducir el tiempo y el esfuerzo del usuario para con la tarea automática que
se necesita realizar. Haciendo uso de las ciencias de la computación y de las tecnologías de información y
comunicación (TICs) las empresas, los académicos y entusiastas pueden implementar soluciones
tropicalizadas utilizando componentes de hardware y software privativo, propio o de código abierto para la
reducción de horas hombre sobre tareas manuales. Para poder implementar automatización de tareas todos
los procesos o pasos intermedios que se necesitan para completar la actividad final deben traducirse sobre
una secuencia lógica de pasos que un computador puede realizar.
Bajo el enfoque tradicional que define un sistema, la secuencia lógica debe pasar por un proceso de tres
fases [3]: entrada (recepción de datos), procesamiento (ejecución de tareas sobre los datos recibidos), y
salida (generación de una respuesta sobre los datos procesados). Al momento de automatizar cualquier tipo
de proceso, cada paso que sea parte del mismo debe ser ajustable, por definición, al esquema de lo operable
por los componentes de Hardware y Software de una computadora.
Para ejemplificar una secuencia lógica, vea como la compra de un producto en una tienda cualquiera
requiere que cada acción implícita se deba realizar en visión de una lista secuencial o en paralelo de pasos.
Al momento de realizar una venta dentro de un sistema de tienda, el sistema recibe a través del
cajero/vendedor la entrada del número de identificación del producto a comprar (sea éste leído por algún
sensor o ingresado por tipeo), además de la información del cliente que lo adquiere, la fecha y hora de
compra junto con el medio de pago. El sistema internamente conoce el valor de venta asociado con dicho
código de producto para poder generar un recibo de compra, además de registrar el ingreso monetario de la
venta al mismo tiempo que se realiza la descarga del producto del inventario. En caso que el sistema sea
más automatizado es posible que al pagar con tarjeta de crédito éste haga directamente la transacción de
débito con alguna institución financiera con la que está conectada, leyendo de forma automática los datos
de la tarjeta mediante un sensor (usando lector de cinta magnética, chip de contacto o lectura inalámbrica).
Como puede observar, cada actividad ejemplo posee a una secuencia lógica de pasos que pertenece al flujo
del “proceso original de compra de un producto”, de tal forma que cada paso se ejecuta uno tras otro o en
paralelo, de inicio a fin y sin interrupciones.
Bajo este diseño es posible analizar la secuencia lógica del procesamiento de la asistencia de estudiantes
para un aula de clases, incluyendo la captura, el registro, procesamiento y retroalimentación de los datos.
Tomando en cuenta los aspectos anteriores es posible identificar los siguientes componentes generales: a)
la entrada: el registro escrito o de imagen de los datos de los estudiantes presentes digitalizado o digitado a
través del usuario, b) el proceso: el guardado y contabilización de la asistencia de cada estudiante de forma
individual sobre la clase actual, bajo la fecha y hora del día, ubicación y datos de la clase/docente, y c) la
salida: la retroalimentación en reporte físico o en pantalla de los estudiantes detectados, estudiantes faltantes
o de las inconsistencias del registro.
La Figura 1 reduce en un solo marco el planteamiento del flujo de un sistema, tomando como referencia
de entrada una instrucción definida en lenguaje natural escrita directamente en una aplicación chat, donde
dicho mensaje cruza por un medio electrónico hasta llegar a un servidor centralizado en internet que es
capaz de procesar la información solicitada, para posteriormente generar una respuesta que regresa como
un mensaje de retroalimentación hacia el chat origen. Cada sección del proceso requiere un protocolo y
lenguaje de comunicación intermedio para que cada programa involucrado dentro de la cadena de proceso
sea capaz de entender y transportar los datos en proceso.

211
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 1. Secuencia lógica del flujo de entrada, proceso y salida bajo un dispositivo móvil hacia un servicio web para el
procesamiento de los datos de asistencia, usando un chat como medio de comunicación.

Cada secuencia de este proceso representa la interacción de múltiples componentes de software escritos
en algún lenguaje de programación, que permiten cumplir cada tarea bajo un criterio de completitud
previamente definido por el diseñador del mismo. Si la tarea es considerada como completada, el sistema
deberá avanzar al siguiente paso, repitiendo este proceso de manera secuencial hasta cumplir con el último
paso, cada vez que se haga el llamado a la ejecución del programa. Los agentes inteligentes, además de
incluir estas características dentro de sí mismos, contienen cualidades adicionales que permiten aplicar otras
características dentro de la ejecución de programas de computadora, las cuales son [4]: racionalidad,
autonomía, persistencia, comunicación, cooperatividad, movilidad y adaptación.
De acuerdo con estas características, el sistema debe diseñarse de acuerdo con la capacidad de
reaccionar de manera inteligente ante distintas entradas de datos, actuando de forma independiente no sujeto
a un control externo, ejecutándose continuamente y con la capacidad de proveer información o
retroalimentación. De acuerdo con otras funcionalidades avanzadas de los agentes inteligentes estos podrían
trabajar de manera coordinada con otros agentes para cumplir con una tarea en común, con la capacidad de
desplazarse dentro de una red y de adaptarse y aprender.
B. Mecanismo de interacción, alimentación y respuesta
Aunque es posible implementar agentes inteligentes bajo otros recursos, el acercamiento de este estudio
materializa el agente inteligente mediante Chat Bots, Chatterbot o Bots [5] que permiten interacción escrita
entregando instrucciones haciendo uso de lenguaje natural. Mediante técnicas de reconocimiento de
patrones es posible crear un árbol de decisiones que describa múltiples condicionales haciendo uso de
expresiones regulares para la formulación de decisiones inteligentes que distingan múltiples entradas de
texto bajo el mismo significado semántico.
Para definir un modelo genérico de interacción se considera el uso de un mecanismo de chat (haciendo
uso de una aplicación móvil comercial que permita la construcción de un Chatterbot), de tal forma que
exista un servicio que siempre está en escucha (Bot) el cual recibe el texto de entrada. Los Chatterbots
también pueden aceptar otros medios de datos como ser audios, imágenes y videos. Debemos tomar en
cuenta que el chat, al ser un intermediario entre el Bot y el agente inteligente, se encarga de transferir el
mensaje de texto o contenido de entrada hacia distintos componentes externos que residen fuera del alcance
del dispositivo móvil. Estos servicios externos están implementados mediante plataformas web de tal forma
que pueda enlaces entre las distintas plataformas usando comunicación a través de protocolos de internet.
Al servicio web que contiene el agente inteligente le llamaremos Web Backend.

212
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 2. Mecanismo de alimentación usando texto plano en Lenguaje Natural para el árbol de decisiones en la interacción con el
Agente Inteligente.

Todas las interacciones entre el usuario y el Agente Inteligente ocurrirán a través del chat, incluyendo
la alimentación de datos y retroalimentación/respuesta de la ejecución por parte del agente. Para el
acercamiento experimental el proceso de entrada de datos puede ser de dos tipos: mediante oraciones en
lenguaje natural usando texto plano o con el ingreso de instrucciones mediante digitalización de datos en
formato imagen/fotografía. Bajo el enfoque NLP (Natural Language Processing, o Procesamiento de
Lenguaje Natural por su significado en español) el agente inteligente debe ser capaz de entender un universo
limitado de instrucciones para el procesamiento de la asistencia de estudiantes que contenga ambos tipos
de datos de entrada. Además, considere que el docente ingresará manualmente cada registro de la
lista leyendo físicamente la misma y transcribiendo sobre el chat los datos para su registro a través
del agente inteligente. Al mismo tiempo, el agente inteligente podrá programarse para recibir
opcionalmente una copia en imagen de la digitalización de la lista.
De acuerdo con la Figura 2, el procesamiento de instrucciones en lenguaje natural usando texto plano
requiere de oraciones que estén redactadas conforme a una estructura flexible pero específica y llena de
palabras claves definidas dentro del agente inteligente. De acuerdo con el contenido o significado de cada
instrucción el agente podrá realizar una acción específica. Para el ejemplo de la figura anterior se ha
utilizado la frase “asistencia de hoy”, la cual debe corresponder con una secuencia de posibles
combinaciones de palabras que pertenecen al árbol de todas las posibles decisiones que el agente inteligente
puede procesar. El comando asociado con el registro de la asistencia para el día de hoy estaría catalogado
como un comando de apertura, de tal forma que todos los datos que envíe el usuario docente a continuación,
pertenecen al registro actual del día de registro.
El agente inteligente puede demostrar su racionalidad, autonomía y persistencia a través de la capacidad
de contextualizar los comandos posteriores al comando de apertura, de tal forma que el agente actúe de
manera inteligente tomando la decisión correcta para cada escenario de texto o imagen recibido. Observe
por ejemplo las siguientes oraciones (cada oración corresponde con un mensaje de texto en la misma
secuencia de aparición): “Registrar la Asistencia para hoy”, “números de cuenta 20171009999”, “agregar
a 20122004015 y 20122004016”, “20161001111”, “y también a Gabriel Ara”. Para cumplir con la tarea, el
agente inteligente debe detectar la palabra “asistencia” o la frase “registrar asistencia” como la instrucción
clave para comenzar a registrar a los estudiantes que se dictarán posterior al mensaje de apertura. A partir
del mensaje 2 en adelante se muestran distintos escenarios en los cuales el catedrático podrá ingresar la
asistencia, considerando que un mismo mensaje puede tener uno o más individuos, que el mensaje puede
tener el nombre parcial o el nombre completo de la persona, o en el mejor de los escenarios el número de
identificación único del estudiante.
Además, en el caso de recibir contenido “incompleto” (como, por ejemplo: el envío del texto “1111” en
lugar de “20161001111”), el agente inteligente debe encontrar el mejor caso o match para dicho escenario
y en caso de existir dos o más aciertos, el sistema debe retroalimentar al usuario docente para que éste
finalmente elija el primero, el segundo, el tercero o el último de la lista de alternativas. Es por tanto que el
agente debe ser capaz de distinguir entre cada escenario, identificando en tiempo real de acuerdo con

213
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

múltiples definiciones de patrones de texto, los estudiantes dictados por el docente para el registro de la
lista de asistencia.

Figura 3. Mecanismo de alimentación mediante imagen para el árbol de decisiones en la interacción con el Agente Inteligente,
considerando la digitalización del listado de asistencia de estudiantes.

Mediante implementaciones más avanzadas de este modelo de registro, la Figura 3 ejemplifica un


posible escenario de registro masivo de personas basado en la imagen de un listado de individuos con un
formato donde se incluye algún número de identificación del estudiante. Aunque la lista de personas esté
escrita bajo letra “a mano” de cada estudiante, mediante computación visual y mecanismos de
reconocimiento de caracteres [6] podría ser posible la extracción del valor de identificación principal del
registro de cada estudiante. Debido a que los formatos de cada hoja de papel a la cual se le toma fotografía
pueden variar, siempre se espera que datos esenciales de cada estudiante estén escritos en dicho documento,
por ejemplo, el nombre y el número de cuenta. La implementación de esta sección del experimento
ciertamente representa la unión de múltiples técnicas y mecanismos para la detección del texto interno a la
lista.

Figura 4. Simulación de una lista de formato de lista de estudiantes digitalizado. El texto de la imagen deberá estar escrito en letra
manual mediante cualquier tipo de lápiz.

IV. TECNOLOGÍAS INVOLUCRADAS Y EL MODELO EXPERIMENTAL


C. Patrón de Diseño
Mediante conceptos y buenas prácticas de la industria e ingeniería de software [7] podemos considerar
que en su completitud el sistema abarca una visión comparable al patrón de diseño conocido como MVC
(Model View Controller, o Modelo Vista Controlador por su significado en español). De acuerdo con esta
definición la vista del Agente inteligente se comprende como la interfaz gráfica o el chat donde el usuario
escribirá el contenido en lenguaje natural y donde el sistema responderá mediante texto predefinido la
retroalimentación de cada ejecución.
La vista corresponde el único medio de interacción entre el usuario y el sistema de computadora. El
controlador corresponde con el componente que procesa los datos recibidos desde la vista. Cada texto o
archivo recibido desde la vista será procesado por el controlador. Si el controlador detecta algo que no

214
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

comprende, por su autonomía el sistema deberá continuar funcionando hasta recibir una instrucción válida
y comprensible. El controlador es la unidad principal de procesamiento del agente inteligente y es donde se
encontrará la algoritmia, la secuencia de pasos y la lógica general que se ejecutará en el sistema.
Para que el controlador sea capaz de procesar algunas tareas de reconocimiento de individuos, éste debe
servirse de una base de conocimientos al cual se le conocerá como el modelo. El modelo está compuesto
por algún gestor de datos que le permita escribir, leer, modificar o consultar información sobre un archivo
o archivos permanentes que se encuentran almacenados en algún lugar de la red donde el agente inteligente
tiene acceso. El controlador por tanto debe ajustar su diseño a una programación dirigida a eventos, donde
cada sentencia de lenguaje natural que ingresa debe estar asociada con una acción o evento específico del
agente (comenzar a crear una lista de asistencia, agregar la asistencia de un estudiante, agregar la asistencia
de múltiples estudiantes, asociar una evidencia de imagen a la lista de asistencia, remover a un estudiante
de la asistencia, buscar un estudiante, dejar de registrar asistencia) donde cada evento debe acceder a algún
conjunto de datos del modelo.
El modelo finalmente es la memoria de todo el sistema que involucra al agente inteligente. Para que el
agente inteligente pueda recordar la información que ha almacenado, se deben preparar consultas
paramétricas que permitan extraer información de la base de conocimientos. Finalmente, el modelo debe
ser un ente independiente, óptimo y seguro donde los datos recopilados puedan ser almacenados de forma
clara y ordenada.

Figura 5. Modelo Vista Controlador para el diseño de registro de asistencia de estudiantes.

D. Herramientas de Apoyo y Componentes para Implementación


Durante el proceso de investigación fueron detectadas algunas herramientas que han servido para
desarrollar pequeños componentes que en conjunto contemplan un ejemplar experimental que hace uso del
diseño general y descriptivo de esta investigación. Se ha recopilado a través de la Tabla 1 un conjunto de
herramientas de software que forman parte del flujo final del agente inteligente y que trabajan en conjunto
para resolver la problemática de la asistencia estudiantil mediante un Chat Bot para automatizar el registro
y el histórico de asistencia. Entre las herramientas se encuentran: la aplicación Telegram la cual permite
implementar un Chat Bot con acceso WebHook para redireccionar un mensaje de chat hacia un servidor
propio externo para el procesamiento de datos, un Web Hosting en internet con acceso a una base de datos,
a un servidor web y un módulo de gestión de tareas programadas para posible ejecución de tareas
programadas.

TABLA I HERRAMIENTAS INVOLUCRADAS EN LA EXPERIMENTACIÓN DE SOFTWARE

Descripción
No. Nombre del componente del
Tecnología Dispositivo Hospedador
Sistema
1 Telegram Chat Cliente App Móvil Dispositivo Móvil
Telegram API Web Hook
2 HTTP Telegram Web Server
Intermediario
Servidor Web Apache2
3 Destino con IP única o HTTP Backend Web Hosting
nombre de dominio público
Base de datos MySQL Server
Base de
4 de acceso remoto desde el Backend Web Hosting
Datos
Servidor Web Público

215
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Programador de Tareas
5 CronJob para el llamado de Scheduler Backend Web Hosting
tareas en base a tiempo

Cada componente de la Tabla 1 forma parte de las herramientas de las tecnologías de información y de
los sistemas de información que sirven como plataforma para la construcción de los componentes restantes
de software que conforman al Agente Inteligente. En consecuencia, se crea la Tabla 2 como el referente de
los componentes que deben existir para la interacción final de todo el flujo.

TABLA 2 COMPONENTES DE SOFTWARE A CONSTRUIR PARA LA IMPLEMENTACIÓN DE LA SOLUCIÓN

Descripción
No. Dispositivo
Componente Función
Hospedador
Public API GET HTTP para la recepción de los mensajes
enviados por el WebHook de Telegram, que contienen la Backend Web
1 Receptor de Datos
instrucción en lenguaje natural o en formato imagen Hosting
generados desde el Chat/Chat Bot en Telegram.
Private API HTTP para el procesamiento del mensaje en
lenguaje natural. Este componente recibe la cadena de texto
y responde con el significado final de la instrucción (tipo de
instrucción): inicio del registro de asistencia, registro de un
individuo, registro de múltiples individuos, cierre del
Procesamiento
registro, etc.
Semántico sin Backend Web
2
acceso a la Base de Hosting
Además del tipo de instrucción, debe responder valores
Datos
complementarios a la instrucción. Por ejemplo: al ser la
instrucción de registro de múltiples individuos, la respuesta
debe acompañar un campo que contenga el listado
completo de individuos sin valores repetidos ni
ambigüedades.
Private API HTTP para la ejecución de una instrucción. En
caso que el servicio anterior haya respondido
satisfactoriamente, este servicio tendrá acceso al modelo de Ejecución de
datos para poder ingresar, extraer, modificar o eliminar Instrucciones con Backend Web
3
datos del modelo de datos. acceso a la Base de Hosting
Datos
Este componente debe contener parámetros de seguridad
que limiten el acceso al mismo.
Private API HTTP para la generación de retroalimentación.
Este componente deberá producir en un formato deseado
(descargable, en imagen, mediante texto plano) la
retroalimentación de todo el proceso de ingreso y debe ser Generación de
Backend Web
4 llamado bajo una instrucción específica de generación de reporte con acceso
Hosting
reporte. a la Base de Datos

Este componente debe contener parámetros de seguridad


que limiten el acceso al mismo.
Private API HTTP para la generación de otras consultas Ejecución de Cubo
sobre los datos, generación de gráficos y otros análisis. de Datos / Data
Backend Web
5 Warehouse con
Hosting
Este componente debe contener parámetros de seguridad acceso a la Base de
que limiten el acceso al mismo. Datos

V. CONCLUSIONES
Mediante la automatización de la asistencia, el sistema de gestión principal de seguimiento diario a
estudiantes podrá ser capaz de producir múltiples escenarios de datos de acuerdo con la información que
pueda almacenar originalmente el sistema. A partir de la premisa sobre la que es posible aplicar conceptos
avanzados de computación visual e inteligencia artificial sobre las imágenes y/o textos recopilados dentro
del modelo de datos, implementaciones más avanzadas de este estudio experimental podrán inclusive
analizar la consistencia de tipo de letra y/o firma de cada estudiante durante todo el periodo académico,
como un mecanismo de anti plagio al momento del registro manual de asistencia (identidad única mediante
escritura).
En consecuencia, la digitalización de datos físicos como ser la letra del estudiante y su firma, puede
generar más información posterior en comparación con otros posibles medios de captura de datos como es
la asistencia mediante huella digital o a través de tarjeta de identificación nacional o estudiantil. Gracias a
esta consideración es concluyente que no es necesario descartar el registro de asistencia mediante un listado

216
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

físico y manual, ya que en su lugar éste permite explorar nuevas formas de analizar datos reales ingresados
por los estudiantes que puedan inspirar la digitalización de otros formatos que contienen escritura a mano,
como, por ejemplo: el análisis de pruebas de aptitud o de exámenes escritos. Estos datos recopilados
mediante la digitalización podrían representar en un futuro una base datos de entrenamiento para estudios
posteriores de redes neuronales artificiales (RNA) para el análisis de la escritura, tipografía, entre otros,
estudiables no únicamente por áreas de la ciencia de la computación sino también por otras carreras o áreas
de la ciencia afines a la data capturada (Lingüística, Psicología, Criptografía).
Aunque es posible desde el punto de vista del potencial de las ciencias de la computación, la inteligencia
artificial, los agentes inteligentes y los Chatterbots, implementar la lista de asistencia mediante el
reconocimiento facial usando una imagen/fotografía del salón de clases en lugar de la fotografía de la lista
de asistencia, o inclusive usando computación mediante procesamiento de audio, el diseño de soluciones
informáticas debe ser progresivo y debe responder a distintos modelos de “Privacidad y Seguridad
Informática”, preparación social y cultural. Cada acercamiento o evolución de esta temática deberá
implementar soluciones cada vez más complejas y eficientes para el manejo de la seguridad, las políticas
de privacidad y de la protección a los individuos.
Finalmente, bajo el estudio de los sistemas de computación, esta investigación concluye la posibilidad
de implementar bajo software y hardware un modelo asistido por computadora capaz de capturar, respaldar
y cuantificar la asistencia estudiantil mediante chats y Bots, haciendo uso de agentes inteligentes y
computación en la nube (plataformas y servicios web) para responder a la problemática de la gestión del
listado manual de estudiantes, manteniendo de forma manual el registro en base a escritura a mano de los
individuos, con centralización de datos en internet y con interfaz de comunicación usando dispositivos/apps
móviles.
VI. AGRADECIMIENTOS
Haciendo uso de este medio comparto mi agradecimiento más sincero hacia nuestro Divino Creador
siempre presente en nuestras vidas, a mi Esposa (E. R.) como fuente de apoyo e inspiración, a mi familia
cercana (A.M., R.I, D. A., J. R., A.I, S.S, V. S. I. S., M. V. I. S., M. I., M. S., S. I., S. P., P. y P.) y amistades
indispensables (M. L., W. M., F. L., E. V. R. M., K. Y. A. A. y J. E. L. R.).
A los emprendedores de servicios gratuitos y abiertos en internet que proveen de plataformas, recursos
y software para generar ideas en beneficio científico y social, sean grandes o pequeñas corporaciones.
A todo aquel hondureño que avanza inclusive cuando no es posible tomar impulso, ya que son fuente
de inspiración.
VII. REFERENCIAS BIBLIOGRÁFICAS
[1] Rectoría, Vicerrectoría Académica y Comité Técnico de Apoyo al Desarrollo Curricular. (2009, abril). El Modelo Educativo
de la UNAH - Serie de Publicaciones de la Reforma Universitaria (No.3) [Online]. Cap. 7.1, pp. 71-73. Available:
[Link]
[2] Birgit Vogel-Heuser, Christian Diedrich, Alexander Fay, Sabine Jeschke, Stefan Kowalewski, Martin Wollschlaeger, Peter
Göhner. (2014, May 10). Challenges for Software Engineering in Automation [Online], digital press. Available:
[Link]
[3] Ralph Stair, George Reynolds. “An Introduction to Information Systems” and “Input and Output Devices: The Gateway to
computer Systems, Data Entry and Input” in Principles of Information Systems, 11th ed. Boston U.S.A.: Course Technology,
Cengage Learning, 2014, p. 7-16, p. 116.
[4] M. Tim Jones. “Intelligent Agents” in Artificial Intelligence A Systems Approach, Hingham, Massachusetts EUA: Infinity
Science Press LLC, pp. 351-356.
[5] ADNAN. A. Arain, A. Manzoor, K. Brohi, K. Haseeb, I. A. Halepoto, I. A. Korejo,"Artificial Intelligence Mark-up Language
Based Written and Spoken Academic Chatbots using Natural Language Processing", Vol.50 (001), pp.153-155, 2017-2018, in
press.
[6] Chirag Patel, Atul Patel (PhD), Dharmendra Patel. "Optical Character Recognition by Open Source OCR Tool Tesseract: A Case
Study", International Journal of Computer Applications (0975 – 8887), Vol. 55– No.10, October 2012. In press.
[7] Wilson G, Aruliah DA, Brown CT, Chue Hong NP, Davis M, Guy RT, et al. (2014) Best Practices for Scientific Computing.
PLoS Biol 12(1): e1001745. Available: [Link]
[8] Nate Kushman, Regina Barzilay. “Using Semantic Unification to Generate Regular Expressions from Natural Language”,
Computer Science and Artificial Intelligence Laboratory Massachusetts Institute of Technology. Unpublished.
[9] Jeffrey E. F. Friedl. “Mastering Regular Expressions”, O’Reilly Media, Beijin, Boston, Farnbam, Sebastopol, Tokyo, 2006.

217
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Viggibot: robot para vigilancia y


reconocimiento de personas

Viggibot: robot for surveillance and


recognition of people

Stewart Blanco Fernández


Instituto Tecnológico de Costa Rica, Costa Rica
stwartf64@[Link]

Josue Esquivel Vega


Instituto Tecnológico de Costa Rica, Costa Rica
victorjosue1260@[Link]

Katherine Salazar Pérez


Instituto Tecnológico de Costa Rica, Costa Rica
kattylue@[Link]

Anthony Segura Chaves


Instituto Tecnológico de Costa Rica, Costa Rica
ansechaves@[Link]

[Link]

218
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Resumen ​— Este artículo describe el diseño de un mini robot capaz de simular un sistema de seguridad para el
hogar que identifique si hay una persona en el área. Es un sistema económico, en comparación con sistemas
similares, y el usuario lo puede ensamblar con conocimientos básicos en programación y electrónica. Lo más
importante del mini robot es que permite tener una visión en tiempo real y en movimiento de lo que acontece
en un área. El usuario tiene total libertad de crear una ruta de vigilancia y modificar cuando sea necesario. Se
integran componentes como placas electrónicas, comunicación bluetooth, cámara de vídeo y chasis integrado
con motores. El software se desarrolla en lenguaje de programación Python, integrando la librería OpenCV y
Coco como dataset para el reconocimiento de objetos.

Palabras clave; mini robot; seguridad; reconocimiento.


Abstract ​— This article describes the design of a mini robot capable of simulating a security system for the
home that identifies if there is a person in the area. It is an economic system, in comparison with similar
systems, and the user can assemble it with basic knowledge in programming and electronics. The most
important of the mini robot is that it allows you to have a real time and moving view of what happens in an
area. The user has complete freedom to create a surveillance route and modify it when necessary. Components
such as electronic boards, bluetooth communication, video camera and integrated chassis with motors are
integrated. The software is developed in the Python programming language, integrating the OpenCV library
and Coco as a dataset for object recognition.

Keywords; mini robot; security; recognition.

I. INTRODUCCIÓN
Los sistemas de seguridad para el hogar son un tema que día con día gana más atención en la
vida cotidiana, pues el crimen aumenta y como ciudadanos nos vemos en la necesidad de reforzar nuestro
hogar. La seguridad en el hogar consiste en integrar tecnologías de hardware y software para la creación
de sistemas que aseguren el entorno.
Los avances tecnológicos en los últimos años sobre el área de seguridad han ido en aumento. La
implementación de cámaras de seguridad tipo circuito cerrado, a pesar de que han sido de gran utilidad
para la vigilancia y seguridad, no son lo suficientemente dinámicas actualmente dado que están adheridas
a una base fija la cual permite un área de inspección [Link] llegada de internet de las cosas (IoT) ha
integrado muchos componentes que abren puertas para que los dispositivos de vigilancia se mejoren con
equipos móviles, brindando movimientos amplios, conexiones remotas, envío y recepción de datos,
además de permitir un medio de comunicación entre máquina y humano [6].
Este documento trata sobre el desarrollo de un mini-robot móvil, Viggibot, capaz de recorrer una ruta
previamente guardada en su memoria y enviar imagen en video en tiempo real de lo que sucede en el
ambiente con el fin de detectar si hay presencia humana en el espacio y activar una alarma. Compuesto
por una Raspberry Pi 2 model B integrada con una cámara Raspberry Pi Camera, una placa
microcontrolador S4A EDU, un módulo de bluetooth hc-06, fuente de poder y un chasis con 4 motores.
El documento a presentar se divide en las siguientes secciones: la presente introducción y un resumen
de trabajos relacionados a la robótica y seguridad, en el desarrollo se describen los componentes de
hardware necesarios y una breve descripción del software implementado, se presenta el ensamble de los
componentes y los resultados obtenidos, finalmente se da una conclusión de lo implementado y mejoras
que se pueden aplicar a Viggibot.

II. TRABAJOS RELACIONADOS


El microcontrolador Raspberry Pi 2 es una tarjeta sumamente versátil, permitiendo ser adaptada a
diferentes áreas para cubrir diversas necesidades.
Snitch es un robot móvil para la vigilancia y reconocimiento creado por R. Karthikeyan, S. Karthik,
Prasanna Vishal TR, S. Vignesh [3]. Snitch utiliza una procesador Raspberry Pi y se controla mediante un
red Wi-Fi. La movilidad es un factor muy importante para este tipo de robot, Snitch es capaz de
movilizarse sobre superficies verticales, ya que utiliza un montaje de “ruedas de oruga” con cubierta de

[Link]

219
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

una cinta de microsucción para crear un vacío parcial entre la cinta y la superficie. La cámara Raspberry
Pi está montada sobre un mecanismo que permite tener una visión de 360°.

El sistema propuesto D Abhilash, Chandrashekar Chandrashekar, S Shalini, utiliza un microprocesador


Raspberry Pi 3 Model B que integra un sensor infrarrojo pasivo que identifica cambios en las radiaciones
infrarrojas en el ambiente, además de una cámara web, si el sistema detecta algo anormal envía una alerta
con fotografías al correo electrónico predefinido [7].
Como se menciona en el artículo "A real-time surveillance mini-rover based on OpenCV-Python-JAVA
using Raspberry Pi 2", el sistema propuesto muestra un sistema un poco más simple y se enfoca en que
sea económico, el robot desarrollado consiste en un sistema de vigilancia que captura vídeo, la dirección
de movimiento es ingresada en tiempo real por el usuario [6].

III. DESARROLLO

DESCRIPCIÓN DE HARDWARE.
Para la implementación de proyecto Viggibot se utilizaron diversos componentes que se encuentran en el
mercado y tienen un costo accesible. A continuación se muestra la lista de componentes y con una breve
descripción y las funciones que desempeña.
1. Raspberry Pi 2 Model B.
La placa Raspberry, fig. 1, se utiliza como unidad de procesamiento del sistema, donde se envía y recibe
información para el control del mini robot y es donde se conecta la cámara Raspberry Pi utilizada para la
captura de imagen y un componente usb que permite conexión Wi-Fi.

Figura 1. Raspberry Pi 2 Model B.

2. S4A EDU.
Se utiliza esta placa,fig. 2, para controlar el movimiento de los motores, que tienen la función de mover
el chasis donde está integrada la cámara.

[Link]

220
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 2. S4A Edu

3. Bluetooth HC-06.
El módulo de bluetooth, fig. 3, es utilizado como conexión entre la aplicación que enviar los comandos
de dirección y el mini robot para realizar los movimientos.

Figura 3. Módulo Bluetooth HC-06

4. Raspberry Pi Camera.
Es una cámara, fig. 4, que se integra a la placa Raspberry Pi 2 para captar imagen en directo de lo sucede
en el área, a la imagen que proporciona se le aplica el procedimiento de reconocimiento de personas. Esta
cámara resulta ser de bajo costo en contraste a las características que posee, pues a pesar del tamaño
reducido brinda buena calidad de imagen, necesaria para la identificación de figuras [5].

Figura 4. Raspberry Pi Camera

[Link]

221
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

5. Fuente de poder.
Se utilizan 2 fuentes de poder: la primera compuesta por 4 baterías de tamaño 2A integradas a un porta
baterías que proporciona energía para mover los motores. La segunda fuente es una batería recargable de
litio de 3.7 voltios conectada a la placa Raspberry Pi 2.

6. Chasis y motores.
Se utiliza un kit de chasis básico 4x4 con 4 motores y 4 ruedas, fig. 5.

Figura 5. Kit básico de chasis y motores.

DESCRIPCIÓN DE SOFTWARE.
Para la parte lógica del proyecto se implementan 5 archivos, 2 archivos en la placa Raspberry Pi, 2 en
el ordenador y uno en el controlador de los motores.
En el Raspberry Pi se localizan, [Link] y [Link]; el primero encargado de enviar el video
obtenido por la cámara y lo envía al cliente en el ordenador mediante conexión bluetooth y el segundo es
el encargado de almacenar las instrucciones recibidas por el Raspberry Pi para controlar los movimientos
los motores.
Dentro del ordenador se encuentran [Link] y [Link], el primero se encarga de abrir un host al
que por medio de sockets se envía el video capturado por el mini robot; mientras que el otro se encarga de
analizar ese video recibido con YOLO y así detectar si hay personas en el video capturado. El último
archivo contiene las instrucciones que van en el controlador para hacer los movimientos de los botones
direccionales. Los archivos con el código se encuentran en el enlace adjunto al pie de página.

IV. INSTALACIÓN E IMPLEMENTACIÓN


A continuación se describe cómo se debe de conectar los diferentes componentes, se utilizan cables
puente para unir los motores a los respectivos pines. El ensamblaje del chasis con los motores y ruedas se
realizó de acuerdo al manual de instrucciones que viene con la compra del kit.
Se inicia con la conexión de la placa S4A EDU con el módulo Bluetooth, los motores y la fuente de
energía.
1. Bluetooth: como se muestra en la fig. 6 la placa S4A EDU cuenta con los pines: 5v, Gnd,TX y
RX, el módulo bluetooth RC-06 cuenta con 4 pines.
Los pines de carga positiva se corresponden en placa y RC-06.
Los pines de carga negativa se corresponden en placa y RC-06.
Los pines RX y TX se conectan de manera cruzada, es decir, el pin TX de la placa se conecta
con el pin TR de RC-06. El pin TR de la placa se conecta con el pin TX de RC-06.

[Link]

222
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 6. Esquema de ensamble de placa S4A

2. Fuente de energía: el porta baterías tiene los pines de carga positiva y negativa y se conectan
respectivamente a la placa S4A EDU.
3. Motores: para conectar 4 motores a la placa se realiza una unión entre los motores que permiten
la conexión de 2 motores a cada pin, ya que solo se cuenta con 2 pines.

En el microcontrolador Raspberry Pi 2 se complementa con la Raspberry Pi Camera, un dispositivo usb


Wi-Fi y un dispositivo que le brinda conexión bluetooth. Además, la placa se alimenta mediante una
batería recargable de 3.7 V que se conecta por medio de un puerto tipo mini [Link] fig. 7 muestra un
esquema de conexión.

Figura 7. Esquema de conexión Raspberry Pi 2 Model B.

RESULTADOS OBTENIDOS
Una vez integrados los componentes de hardware, instalado el software y con las conexiones de
bluetooth y Wi-Fi activas, se procede a poner a prueba el mini robot.
● La conexiones bluetooth y Wi-Fi se realizan de manera exitosa. Se cuenta con un medio de
comunicación entre la aplicación y el mini robot.
● El mini robot tiene movimiento. Recibe instrucciones desde la aplicación y las realiza de manera
exitosa, se comprueba que se mueva hacia adelante, atrás, derecha e izquierda [2].
● El mini robot replica la ruta ingresada anteriormente de manera parcial. el ángulo del
movimiento no es replicado exactamente igual al ingresado, existe una pequeña variación, sin
embargo, la duración y la cantidad de instrucciones si coinciden.
● La imagen de video captado por la cámara es tiempo real, no obstante la calidad de conexión a
internet es un factor importante.
● Comparando lo obtenido con los resultados del trabajo realizado por [6], se obtienen mejores
resultados en cuanto a reconocimiento de objetos puesto que se realiza un stream de video a
[Link]

223
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

color por lo que la diferenciación de objetos es mejor, pero a mayor costo de procesamiento dado
que es más caro en cuanto a recursos el análisis de video a color.

V. CONCLUSIÓN
El presente documento tiene como fin integrar tecnologías como IoT a la vida cotidiana de las
personas y mejorar su calidad de vida. Es importante aprovechar los avances de IoT, integrar movilidad a
los sistemas de vigilancia hace que se reduzca la inversión en el equipo, pues no sería necesario la compra
de varias cámaras de seguridad para una determinada área cuando se puede tener una cámara en
movimiento patrullando el perímetro. Se integra un sistema para reconocimiento de humanos, con la
función de alertar una presencia extraña, permitiendo al usuario no estar pendiente en todo momento de la
imagen en video que captura el mini robot.
Se utilizan componentes económicos y accesibles que una vez integrados, el componente final es fácil de
manipular y de trasladarlo. El usuario cuenta con total libertad de crear una nueva ruta en el momento que
lo desee, realizando una conexión con la aplicación e ingresando la nueva ruta.

VI. TRABAJOS FUTUROS


A pesar de obtener un buen resultado en la implementación de un mini robot para reforzar la seguridad
en el hogar se pueden realizar algunas mejoras.
Se deben de hacer cálculos más precisos cuando se tiene que replicar la ruta ingresada por el usuario
anteriormente.
El ruido que hacen los motores cuando giran puede ser un factor de alerta si hay una persona ajena en el
área. Para corregir esto se debe de investigar sobre motores o un componente que permita la movilización
y sea más silencioso.
El uso del mini robot durante en la noche es fundamental, pues es cuando más vulnerable se encuentra un
hogar, es necesario aplicar filtros con los cuales se pueda limpiar el ruido de la imagen, además se puede
convertir en escala de colores y con profundidad para tener una mejor identificación de una figura
humana [1].
Como valor agregado se puede implementar capturar una serie de fotografías cuando se active la alarma
y se envíen a una cuenta de correo electrónico predefinida [4] .
Un óptimo funcionamiento del mini robot implica sustituir la actual unidad de procesamiento por una más
avanzada, que permite mayor velocidad de respuesta y procesamiento. La fuente de energía que se utilizó
no brinda la energía suficiente para que nos motores se puedan mover en superficies ásperas.

REFERENCIAS BIBLIOGRÁFICAS

[1] H. N. Do, M. Vo, B. Q. Vuong, H. T. Pham, A. H. Nguyen and H. Q. Luong, "Automatic license plate
recognition using mobile device," 2016 International Conference on Advanced Technologies for
Communications (ATC), Hanoi, 2016, pp. 268-271.

[2] D. Ravipati, P. Karreddi and A. Patlola, "Real-time gesture recognition and robot control through blob
tracking," ​2014 IEEE Students' Conference on Electrical, Electronics and Computer Science​, Bhopal,
2014, pp. 1-5.

[3] R. Karthikeyan, S. Karthik, Prasanna Vishal TR and S. Vignesh, "Snitch: Design and development of
a mobile robot for surveillance and reconnaissance," ​2015 International Conference on Innovations in
Information, Embedded and Communication Systems (ICIIECS)​, Coimbatore, 2015, pp. 1-4.

[4] D. C. Silva, T. F. Pereira and V. V. Moreira, "ERS-210 Mobile Video Surveillance System," ​2005
portuguese conference on artificial intelligence​, Covilha, 2005, pp. 262-265.

[5] M. Viitanen, A. Koivula, J. Vanne and T. D. Hämäläinen, "Kvazaar HEVC still image coding on
Raspberry Pi 2 for low-cost remote surveillance," ​2015 Visual Communications and Image Processing
(VCIP)​, Singapore, 2015, pp. 1-1.

[Link]

224
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[6] N. Hossain, M. T. Kabir, T. R. Rahman, M. S. Hossen and F. Salauddin, "A real-time surveillance
mini-rover based on OpenCV-Python-JAVA using Raspberry Pi 2," ​2015 IEEE International Conference
on Control System, Computing and Engineering (ICCSCE)​, George Town, 2015, pp. 476-481.

[7] D. Abhilash, C. Chandrashekar and S. Shalini, "Economical, energy efficient and portable home
security system based on Raspberry Pi 3 using the concepts of OpenCV and MIME," ​2017 International
Conference on Circuits, Controls, and Communications (CCUBE)​, Bangalore, 2017, pp. 60-64.
doi: 10.1109/CCUBE.2017.8394155

[8] L. Tan, X. Dong, Y. Ma and C. Yu, "A Multiple Object Tracking Algorithm Based on YOLO
Detection," ​2018 11th International Congress on Image and Signal Processing, BioMedical Engineering
and Informatics (CISP-BMEI)​, Beijing, China, 2018, pp. 1-5.

[9] G. Chandan, A. Jain, H. Jain and Mohana, "Real Time Object Detection and Tracking Using Deep
Learning and OpenCV," ​2018 International Conference on Inventive Research in Computing
Applications (ICIRCA),​ Coimbatore, 2018, pp. 1305-1308.

[10] C. Tung ​et al​., "Large-Scale Object Detection of Images from Network Cameras in Variable
Ambient Lighting Conditions," ​2019 IEEE Conference on Multimedia Information Processing and
Retrieval (MIPR)​, San Jose, CA, USA, 2019, pp. 393-398.

[11] R. Zhang, Y. Yang, W. Wang, L. Zeng, J. Chen and S. McGrath, "An Algorithm for Obstacle
Detection based on YOLO and Light Filed Camera," ​2018 12th International Conference on Sensing
Technology (ICST)​, Limerick, 2018, pp. 223-226.

[12] R. Benzer and M. C. Yildiz, "YOLO Approach in Digital Object Definition in Military Systems,"
2018 International Congress on Big Data, Deep Learning and Fighting Cyber Terrorism (IBIGDELFT)​,
ANKARA, Turkey, 2018, pp. 35-37.

[13] A. Ćorović, V. Ilić, S. Durić, M. Marijan and B. Pavković, "The Real-Time Detection of Traffic
Participants Using YOLO Algorithm," ​2018 26th Telecommunications Forum (TELFOR)​, Belgrade,
2018, pp. 1-4.

[14] Q. Peng ​et al​., "Pedestrian Detection for Transformer Substation Based on Gaussian Mixture Model
and YOLO," ​2016 8th International Conference on Intelligent Human-Machine Systems and Cybernetics
(IHMSC)​, Hangzhou, 2016, pp. 562-565.

[15] J. A. Torregrosa Olivero, C. María Burgos Anillo, J. P. Guerrero Barrios, E. Montoya Morales, E. J.
Gachancipá and C. Andrés Zamora de la Torre, "Comparing state-of-the-art methods of detection and
tracking people on security cameras video," ​2019 XXII Symposium on Image, Signal Processing and
Artificial Vision (STSIVA)​, Bucaramanga, Colombia, 2019, pp. 1-5.

[16] J. Howse, "Training detectors and recognizers in Python and OpenCV," ​2014 IEEE International
Symposium on Mixed and Augmented Reality (ISMAR)​, Munich, 2014, pp. 1-2.

[17] N. K. Kumar, D. Vigneswari, A. Mohan, K. Laxman and J. Yuvaraj, "Detection and Recognition of
Objects in Image Caption Generator System: A Deep Learning Approach," ​2019 5th International
Conference on Advanced Computing & Communication Systems (ICACCS)​, Coimbatore, India, 2019, pp.
107-109.

[18] T. Gayathri Devi, P. Neelamegam and S. Sudha, "Image Processing System for Automatic
Segmentation and Yield Prediction of Fruits using Open CV," ​2017 International Conference on Current
Trends in Computer, Electrical, Electronics and Communication (CTCEEC)​, Mysore, 2017, pp. 758-762.

[19] D. Pande, C. Sharma and V. Upadhyaya, "Object detection and path finding using monocular
vision," ​2014 International Conference on Signal Propagation and Computer Technology (ICSPCT
2014),​ Ajmer, 2014, pp. 376-379.
[Link]

225
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[20] S. N. Jyothi and K. V. Vardhan, "Design and implementation of real time security surveillance
system using IoT," ​2016 International Conference on Communication and Electronics Systems (ICCES)​,
Coimbatore, 2016, pp. 1-5.

[21] W. Lan, J. Dang, Y. Wang and S. Wang, "Pedestrian Detection Based on YOLO Network Model,"
2018 IEEE International Conference on Mechatronics and Automation (ICMA),​ Changchun, 2018, pp.
1547-1551.

[22] A. M. Algorry, A. G. García and A. G. Wofmann, "Real-Time Object Detection and Classification of
Small and Similar Figures in Image Processing," ​2017 International Conference on Computational
Science and Computational Intelligence (CSCI)​, Las Vegas, NV, 2017, pp. 516-519.

[23] S. Katyal, S. Kumar, R. Sakhuja and S. Gupta, "Object Detection in Foggy Conditions by Fusion of
Saliency Map and YOLO," ​2018 12th International Conference on Sensing Technology (ICST),​ Limerick,
2018, pp. 154-159.

[24] R. Huang, J. Pedoeem and C. Chen, "YOLO-LITE: A Real-Time Object Detection Algorithm
Optimized for Non-GPU Computers," ​2018 IEEE International Conference on Big Data (Big Data),​
Seattle, WA, USA, 2018, pp. 2503-2510.

[25] A. Raghunandan, Mohana, P. Raghav and H. V. R. Aradhya, "Object Detection Algorithms for
Video Surveillance Applications," ​2018 International Conference on Communication and Signal
Processing (ICCSP)​, Chennai, 2018, pp. 0563-0568.

[Link]

226
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Sistema IoT de reconocimiento de lechugas


listas para corta y monitoreo de humedad y
temperatura con Raspberry Pi Zero

IoT System for lettuces recognition ready to


cut and monitoring humidity and
temperature with Raspberry Pi Zero

Set Felipe Boza Salas


Escuela de Computación Instituto Tecnológico de Costa Rica San Carlos, Costa Rica
sboza95@[Link]

Kevin López Ubau


Escuela de Computación Instituto Tecnológico de Costa Rica San Carlos, Costa Rica
Ubau13@[Link]

Emilio Bermúdez Mora


Escuela de Computación Instituto Tecnológico de Costa Rica San Carlos, Costa Rica
emiliobm07@[Link]

Josua Carranza Pérez


Escuela de Computación Instituto Tecnológico de Costa Rica San Carlos, Costa Rica
joshuaenrique96@[Link]

Resumen ​— El monitoreo automático de huertos y sembradíos resulta una opción viable para las personas
dedicadas a la agricultura. La extensión de los terrenos de siembra es variante y ante uno demasiado grande el
ir en busca de cultivos listos para la cosecha implica una inversión de tiempo considerable. Por ello, en este
documento se propone un sistema de IoT con Raspberry Pi Zero que monitorea la humedad y temperatura del
ambiente y además es capaz de detectar lechugas listas para corta y notificar a las personas interesadas en esta
información. Se emplea YOLO para reconocer las lechugas en las imágenes, python para la implementación de
un streaming utilizando una webcam conectada a la Raspberry Pi Zero y la programación de un bot en
telegram para notificar. Los resultados obtenidos reflejan que es posible implementar un sistema de monitoreo
de la temperatura humedad del ambiente y de cultivos listos para corta empleando en este caso únicamente
una Raspberry Pi Zero, un sense-hat, una webcam y una laptop.

Palabras clave; Raspberry Cayenne; Reconocimiento de imágenes; sense-hat; Api en nube de Cayenne;
reconocimiento de lechugas; monitoreo de clima; Telegram bot.
Abstract ​— The automatic monitoring of orchards and crops is a viable option for people dedicated to
agriculture. The extension of the land of sowing is variant and before one too big the go in search of crops
ready for harvest implies an investment of considerable time. Therefore, this document proposes an IoT
system with Raspberry Pi Zero that monitors the humidity and temperature of the environment and is also
capable of detecting ready-to-cut lettuce and notify those interested in this information. YOLO is used to
recognize the lettuces in the images, python for the implementation of a streaming using a webcam connected
to the Raspberry Pi Zero and the programming of a bot in telegram. The results obtained reflect that it is
possible to implement a monitoring system for temperature and humidity of the environment and crops ready
for cutting, using in this case only one Raspberry Pi Zero, a sense-hat, a webcam and a laptop.

227
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Keywords; Raspberry cayenne; image recognition; sense-hat; cayenne cloud API; recognizing lettuces;
weather monitoring; Telegram bot.

I. INTRODUCCIÓN
Con el paso del tiempo, la tecnología se ha incorporado en ámbitos en los que anteriormente no
poseía una participación destacable. Tal es el caso de la agricultura, ya que fue hasta hace pocos años que
los beneficios de las soluciones tecnológicas se llevaron hacia este campo tan importante. Generalmente,
las soluciones propuestas para solventar las problemáticas existentes en este ámbito involucran sensores
para captar la información del ambiente y tomar decisiones en base a ello. Además, lo que se busca es
simplificar las tareas de las personas que se dedican a la agricultura y principalmente disminuir el tiempo
que las mismas deben permanecer en los sembradíos o invernaderos. Ejemplo de esto, es el sistema
propuesto por Dholu y Ghodinde; quienes proponen el uso de un conjunto de sensores para conocer la
temperatura, la humedad en el aire y en el suelo con la finalidad de almacenar dichos datos en la nube y
permitir que los usuarios accedan a ellos por medio de una aplicación móvil que básicamente exhibe
gráficos lineales que describen el comportamiento de estos tres parámetros a través del tiempo [1].
De igual manera, existen soluciones que van más allá de solamente exhibir datos atmosféricos. Pallavi,
Mallapur y Bendigeri proponen el uso de un sistema remoto para la gestión automática de invernaderos
controlando aspectos que puedan afectar el crecimiento de las plantas, tales como: el dióxido de carbono,
la humedad del suelo, la temperatura y la luz [2]. El sistema permite que las personas visualicen dicha
información, pero lo más destacable es que según las lecturas obtenidas se realizan ajustes automáticos en
el invernadero. Por ejemplo, si está entrando muy poca luz entonces se abren un poco más las puertas y
ventanas.
Parte esencial de las soluciones en el ámbito de la agricultura recae en el uso de sensores. Es por esto que
elegir el tipo de monitoreo a utilizar resulta fundamental. Existen principalmente dos alternativas: uso de
controladores electrónicos y sensores tradicionales o utilizar tecnologías de monitoreo inalámbrico. El
monitoreo inalámbrico se refiere al uso de drones o robots para monitorear grandes espacios de tierra.
Dichos drones o robots utilizan GIS (Sistema de información geográfica) que permite conocer y
almacenar toda la información de un sitio específico del campo sin mencionar la posibilidad de visualizar
esta información en mapas digitalizados [3].
Por otra parte, la aplicación de la inteligencia artificial como medio para resolver problemas complejos
presentes en la agricultura no se ha hecho esperar. Una de las aplicaciones es la clasificación de suelos, es
conocido que en la agricultura el suelo es un factor fundamental en el crecimiento de los cultivos. Es por
esto que Rahman, Chandra y Mohidul decidieron utilizar algoritmos de inteligencia artificial para
clasificar suelos y posterior a ello brindar los nombres de los cultivos que deberían sembrarse en dichos
suelos [4]. Para lograr esto enfatizan en que se requiere conocer un conjunto de características químicas
de los suelos como por ejemplo la cantidad de pH, salinidad, azufre, potasio, zinc, entre otros. Es posible
brindar las sugerencias de cultivos a sembrar debido a que en el experimento contaban con una base de
datos que a grandes rasgos consistía en relaciones entre el tipo de suelo y los cultivos para los que este es
más apto.
Asimismo, la inteligencia artificial puede ser una alternativa para el reconocimiento de imágenes y así
optimizar algunas soluciones que ya se han implementado. Por ejemplo, en una investigación plantean
una solución para detectar enfermedades en la fruta granada por medio de imágenes, el proceso llevado a
cabo implica la adquisición de las imágenes, el preprocesamiento, la segmentación y la extracción de
características de las mismas para al final centrarse en ciertas regiones de las imágenes y determinar si la
fruta posee la enfermedad o no [5]. Este problema puede ser abordado utilizando inteligencia artificial a
través del entrenamiento de un modelo con el objetivo de que sea capaz de distinguir entre frutas sanas y
enfermas, para ello se requeriría entrenar el modelo con un conjunto de imágenes de frutas que no posean
la enfermedad y de otras que sí estén enfermas.
Recalcando otro caso del uso de la inteligencia artificial y el reconocimiento de imágenes en el área de
agricultura, se presenta el caso de la industria del cacao en las Filipinas y zonas aledañas. En estas, según
lo expuesto por Angelia y Linsangan los productores de cacao se enfrentan a la laboriosa tarea de
clasificar las semillas dependiendo de su madurez. No obstante, en este proceso se debe tomar muy en
cuenta la fermentación de las mismas, ya que la calidad del cacao que se produzca dependerá de un grado
correcto de fermentación de estas. En respuesta a esto los autores proponen un sistema de reconocimiento
de semillas utilizando el procesamiento de imágenes junto con la combinación de hardware [6].
Finalmente, vale la pena destacar un proyecto de identificación de plantas en base a las venas de las hojas,
el cual hace uso desde el punto de vista del hardware, una raspberry pi modelo 2, una cámara para el
mismo modelo del dispositivo, y una pantalla lcd para mostrar resultados. Y por su parte en lo que

228
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

respecta al software, algoritmos como SIFT (Scale-invariant feature transform) para extraer características
relevantes y SVM (Support Vectors Machines) para la clasificación de las mismas [7].
El principal objetivo de esta investigación es desarrollar un sistema de IoT que monitoree un huerto con la
finalidad de conocer si existen lechugas listas para corta en el mismo, y la humedad y temperatura
ambiente. Esto utilizando una Raspberry Pi Zero que puede administrarse remotamente por medio de la
plataforma Cayenne. De existir alguna lechuga que ya esté lista para corta se notificará a las personas
interesadas a través de un bot.

II. DESARROLLO
A. Metodología de estudio utilizada
La siguiente imagen ilustra los pasos seguidos para implementar la solución propuesta:

Figura 1. Pasos de la metodología utilizada

A continuación, se detallan algunos aspectos de los pasos de la metodología de estudio utilizada:

1. Análisis de la problemática: Dicho análisis es requerido para obtener los requisitos funcionales
de la solución, estos requisitos serían la guía para la etapa de desarrollo.
2. Identificación de puntos claves de la solución: Puntos como la identificación de lechugas listas
o no para corta a través de imágenes, el monitoreo de los parámetros de humedad y temperatura
en el sembradío, el streaming desde la Raspberry Pi Zero y el bot con propósitos de consulta y
notificación para los usuarios.
3. Selección de tecnologías y estrategias a utilizar: Este paso constituye la selección de los
lenguajes de programación a utilizar en los distintos componentes de la solución, así como
también los métodos empleados para acceder a los datos que administra el sistema propuesto. A
través de la Raspberry Pi Zero se realiza un streaming de video y se obtienen los datos de
humedad y temperatura utilizando Python como lenguaje de programación, para la detección de
lechugas se utiliza YOLO, el bot y el procesamiento del streaming para aplicar el modelo de
inteligencia artificial se codificaron en Python. Un claro ejemplo de una estrategia utilizada el
streaming de video desde la Raspberry Pi Zero.
4. Desarrollo de la solución:​ Considerando lo establecido en las etapas anteriores.
5. Evaluación de la solución: Una evaluación final para verificar que el modelo de inteligencia
artificial es capaz de detectar lechugas listas y no listas para corta, la correcta obtención de los
parámetros de temperatura y humedad del ambiente junto la publicación en la nube de dichos
datos y finalmente el buen funcionamiento del bot tanto para consulta como para notificación de
que existen lechugas listas para corta.
B. Hardware utilizado
Para realizar el proyecto se emplearon los siguientes recursos de hardware : Raspberry Pi Zero,
Módulo Sense-Hat, Cámara webcam, Monitor de computadora y Computadora Dell Inspiron 5447.
C. Integración entre la Raspberry Pi Zero y Cayenne
La integración realizada tenía como objetivo la administración en la nube de las lecturas de los
sensores de temperatura y humedad. Con el fin de realizar una conexión entre la raspberry, el sensehat y
la plataforma en línea Cayenne primeramente se necesita configurar la raspberry con el fin de que pueda

229
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

leer los sensores del sensehat, para ello en primera instancia instalar el sistema operativo Raspbian en la
raspberry Pi. Luego asegurarnos de tener python instalado preferiblemente la versión 3. Posterior a esto
ejecutar el siguiente comando ​sudo apt-get install sense-hat​, con esto ya podemos hacer lectura de los
sensores usando código python.
Luego de asegurarse de que el sensehat funciona correctamente se debe registrar en la página oficial de
Cayenne:​[Link] Después se debe instalar la aplicación móvil de Cayenne en algún
dispositivo móvil Android o iOS, abrir la aplicación, iniciar sesión, seleccionar Raspberry Pi. En este
punto la raspberry debe estar conectada a la misma red que el celular (esto solo es necesario la primera
vez) cuando iniciemos la búsqueda de la Raspberry y se conecten, deberemos esperar a que Cayenne se
instale en la Raspberry Pi. El siguiente paso es instalar el siguiente plugin: ​”Cayenne Raspberry Pi
Sense Hat Plugin” el cual se puede encontrar en el siguiente repositorio:
[Link]
Dicho plugin debe ser instalado en el directorio ​/etc/myDevices/plugins el cual ya estaba previamente
creado cuando se instaló ​mydevices en la Raspberry, se clona el repositorio en esa carpeta y ejecutamos
el archivo ​[Link] con python 3. Para finalizar este proceso lo que resta es poder registrar el dispositivo
(raspberry) y también que lea los sensores del sensehat en ​myDevices​. Para esto se tuvo que seguir la guía
de la documentación de ​Cayenne Cloud API Key​, ​[Link] la
cual en realidad no está muy completa y actualizada pero sirve muy bien de guía para poder generarlos
tokens, obtener información de las lecturas de los sensores para luego poder consumirlos en cualquier otra
aplicación secundaria.
Para obtener la lectura de la temperatura con el sensehat acoplado a la Raspberry se utilizó el siguiente
API creado previamente con Cayenne Cloud,
[Link]
0-7f79-11e9-b4eb-6bf2c2412b24/summaries?type=latest​, dicha URL se descompone en varias partes, y
necesita un Bearer token para poder realizar la petición.
Dicho token se puede generar siguiendo los pasos de la guía de Cayenne Cloud API, como anteriormente
se menciona, la url para obtener los datos de los sensores se divide en varias partes, las cuales son las
siguientes: La primera parte corresponde al id de la raspberry, la cual se puede observar en la url del
dashboard de Cayenne. Lo siguiente es el id del sensor a consultar, el cual también se puede obtener
desde el dashboard en la parte de live data. Otro de los parámetros es un argumento llamado type que en
este caso posee el valor "latest" con esto le decimos que retorne el último valor registrado para ese sensor.
Finalmente el último valor es el bearer Token. Cabe resaltar que el request es de tipo GET.
Como se ha podido observar, lo anterior es la guía de todo lo que hubo que realizar para crear una especie
de monitor IoT de diferentes parámetros del ambiente, como los son la temperatura y la humedad, pero
¿Cuáles serían posibles aplicaciones en el proceso de solución de problemas del mundo real? A
continuación se presentarán brevemente una serie de investigaciones similares a la realizada o que tienen
mucha relevancia para este proyecto:
Por ejemplo Souvik Dutta, Anwesha Mitra et al presentan un trabajo [8] llamado "A sensor-based
approach to monitor a specific plant sustainable environment with additional automated rehydration
module", el cual consiste en automatizar el proceso de hidratación de plantas de una forma sencilla y
casera utilizando dispositivos IoT como lo son un Arduino Uno y Cayenne. Esto para que de acuerdo a
datos de diferentes sensores se puedan realizar ciertas acciones que permitan rehidratar las plantas que se
posean, ya sea frutas, legumbres o simplemente flores.
El siguiente trabajo llamado "Hydroponic smart farming using cyber physical social system with telegram
messenger" [9] también se utilizan dispositivos IoT como lo es una Raspberry Pi y un módulo DHT11
con el cual pueden medir intensidad de luz, temperatura, humedad, pH y conductividad eléctrica, esto con
el fin de realizar un control automatizado de granja hidropónica. Adicionalmente utilizando también un
medio de comunicación como lo es Telegram para enviar comandos a un bot y así monitorear la granja.
Otro antecedente de trabajos relacionados es el de Sofiane Zemouri, Damien Magoni et al [10] llamado:
"An Edge Computing Approach to Explore Indoor Environmental Sensor Data for Occupancy
Measurement in Office Spaces", en el cual utilizando una Raspberry Pi y un sensehat board miden la
ocupación humana en un espacio físico determinado con el fin de poder optimizar parámetros como la
temperatura, cantidad de iluminación, etc. En este caso es muy interesante ver cómo el chip Sensehat es
utilizado al igual que en nuestro proyecto para hacer las lecturas del ambiente.
"A Non-intrusive Approach for Smart Power Meter" [11] es otro de los trabajos que también utilizan la
plataforma libre Cayenne para observar los datos obtenidos en sus módulos IoT en tiempo real desde
cualquier parte del mundo, en ese escrito se provee una forma de medir la cantidad de energía consumida

230
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

en un hogar por ejemplo, con el fin de que a partir de dicha información se puedan tomar decisiones para
reducir el consumo y también predecir la factura de electricidad al final del mes.
Raspberry es una placa que facilita muchas cosas debido a su bajo precio, prestaciones de hardware y
facilidad de uso. "Traffic light and sign detection for autonomous land vehicle using Raspberry Pi"[12] es
otro de los antecedentes que se tienen para este proyecto. En este los autores proponen un sistema de
detección de señales de tráfico, tanto señales verticales como lumínicas específicamente un semáforo.
Todo esto para a partir de los datos obtenidos, advertir al conductor, o incluso convertir un vehículo en
uno semi autónomo que pueda tener precauciones con respecto a las señales de tránsito. Entre las
herramientas implementadas igualmente se utilizan una Raspberry Pi y una webcam conectada a esta,
logrando así que se pueda hacer streaming con ambos.
D. Entrenamiento del modelo de inteligencia de artificial para el reconocimiento de imágenes
Con respecto a este proceso, es necesario contar con un conjunto o dataset de imágenes referentes a
los objetos que deben reconocerse en las imágenes. En este caso dicho modelo está enfocado al área de
Agronomía y su objetivo se basa en determinar si una lechuga está lista para ser cortada o si aún le falta
tiempo, por ende es requerido tener imágenes asociadas a ambos estados de una lechuga. Una vez
identificado el tipo de imágenes que se requieren, se prosigue a conseguir una cantidad adecuada de las
mismas. No obstante, en este paso se puede conseguir un dataset previamente creado o hacer uno desde
cero. Para muchas personas la opción más viable es conseguir uno ya creado, con respecto a esto Ullah et
al [13] respaldan el uso del sitio web LabelMe, el cuál además de ser una fuente de imágenes etiquetadas
para entrenamiento, ofrece la posibilidad de etiquetar fotos y compartirlas con una comunidad de
usuarios. En el caso de que se desee crear un dataset desde cero, es imprescindible contar con una fuente
viable de información. Para este proyecto se contó con 7 videos asociados a las cosechas de lechugas
presentes en nuestra universidad. Como tal fueron 4 videos relacionados a lechugas listas para el corte, y
3 de lechugas que no estaban listas. Sin embargo, los videos son una de las posibles fuentes que se pueden
utilizar para este propósito. Como tal se cuenta con páginas web como ImageNet con contenido general, y
Plan Village enfocado en plantas, que cuentan con una gran variedad de fotografías disponibles para
descargar y ser etiquetadas. [14]

1. Extracción de imágenes de videos


Debido a que las fuentes son videos y que los modelos de inteligencia artificial se basan en el
uso de imágenes para su entrenamiento, es necesario realizar la extracción de las mismas desde estos.
Para dicho propósito se hace uso de la herramienta ​Free Video to JPG Converter​. Cabe destacar que
solo está disponible para el sistema operativo Windows.
Para este caso se mantuvieron las siguientes configuraciones de fotogramas por segundo y fotogramas
totales del video: 10 fotogramas, 1 segundo y 200 fotogramas del video.
Una vez configurado el programa se procede a seleccionar el o los videos que serán procesados,
indicar cuál será la carpeta de salida, y se procede a iniciar la ejecución. Al finalizar el proceso de
extracción, se obtienen las imágenes procesadas. En total se obtuvieron 800 imágenes de las cuales 400
fueron de lechugas listas, y 400 de lechugas no listas.
Es importante recalcar que los videos fueron grabados desde distintos ángulos y alturas para
poseer mayor variedad en el conjunto de imágenes de entrenamiento. Las 800 imágenes utilizadas ayudan
a obtener un modelo de inteligencia artificial capaz de detectar lechugas listas y no listas para corta
siempre y cuando las condiciones de aplicación se asemejen a las condiciones con las cuales se grabaron
los videos. Además, para contar con un modelo con un alto grado de eficacia se requiere de más imágenes
de entrenamiento y de una cantidad de iteraciones considerable (por ejemplo 20000).

2. Etiquetado de imágenes
El siguiente paso en la creación de un modelo de inteligencia artificial consiste en el etiquetado
de las imágenes previamente extraídas. Para esto se hace uso de la herramienta ​BBox Label Tool​. Esta
puede ser descargada desde siguiente repositorio: ​[Link]
No obstante, debido a que posteriormente se implementará el servicio de Google Colab para
realizar el entrenamiento del modelo, son necesarios unos archivos de configuración para preparar los
datos, por lo cual se estableció un nuevo repositorio con todos los elementos requeridos:
[Link]
Una vez descargado el repositorio ​BBox Label Tool - Google Colab​ se procede a hacer uso del
mismo.

231
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Primeramente, es necesario mover todas las imágenes para el entrenamiento a la siguiente ruta:
/Images/001​. Una vez hecho esto se procede a ejecutar el archivo ​[Link]​.
Se mostrará una interfaz como la siguiente:

Figura 2. Ejecución de la herramienta de etiquetado

Es necesario indicar la carpeta en donde se encuentran las imágenes (001 por defecto), y presionar el
botón Load. Esto provocará que automáticamente se carguen las imágenes de la carpeta.
Luego de esto se procede a marcar con el cursor el área de interés a reconocer, y se presiona el botón
Next​.

Figura 3. Etiquetado de la imagen

Esta acción se repetirá con cada elemento dentro de la carpeta, y generará un [Link] asociado a cada
imagen. Estos se encontrarán en la siguiente ruta: ​/Labels/001​.
Al finalizar el etiquetado se debe ejecutar el archivo ​[Link]​. Luego de esto se tendrá un resultado
como el de la siguiente ruta: ​/Images/001​. En esta se encuentran asociados, los etiquetados junto al tipo
de clase del modelo. Los últimos pasos consisten en mover los elementos de la ruta ​/Images/001​ al
destino ​/data/obj​, y ejecutar los archivos ​[Link]​, y \​[Link]​ respectivamente en ese
orden.
Aquí los archivos que se utilizarán para el proceso de entrenamiento con Google Colab serán, la carpeta
data​ y los archivos ​[Link]​ y ​[Link]​.

3. Proceso de entrenamiento con Google Colab


Vale la pena recalcar el uso de YOLO como herramienta para el entrenamiento de modelos de
inteligencia artificial, ya que comúnmente el mismo es utilizado en gran cantidad de aplicaciones de
detección de objetos y reconocimiento de patrones. Esto debido a su detección basada en aprendizaje
profundo, y a sus capacidades de de reconocimiento de objetos basadas en probabilidades. [15]
Con la finalidad de entrenar el modelo de YOLO versión 3 se puede hacer uso de algún framework. En
este documento se sugiere emplear el framework llamado Darknet. Este es un framework de redes
neuronales de código abierto escrito en C y en CUDA. Es rápido y fácil de instalar y soporta
procesamiento a través de CPU y GPU [16]. En cuanto al entrenamiento del modelo de inteligencia
artificial este debe realizarse preferiblemente en un computador cuyo poder de procesamiento gráfico sea
óptimo. En el caso de Yolo, el entrenamiento puede llevarse a cabo utilizando únicamente CPU o una
GPU. Es deseable contar con una computadora que posea una tarjeta gráfica Nvidia ya que el proceso de
entrenamiento se acelera si se utiliza la GPU, en caso de utilizar solo la CPU se requerirá de una mayor

232
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

cantidad de tiempo para obtener mejores resultados. Asimismo, se utilizaron los pesos pre entrenados
[Link].74 para el modelo de yolo versión 3, ya que como argumentan Zhou, Feng, Chellali y
Zhu utilizar pesos pre entrenados ayuda a reducir el tiempo de entrenamiento y a lograr un mejor
rendimiento [17]. De igual manera, para potenciar el entrenamiento se debe realizar un pre procesamiento
a las imágenes, en el caso de Zhou, Feng, Chellali y Zhu este pre procesamiento implicaba un
redimensionamiento de las imágenes a un tamaño de 448 x 448, en nuestro proyecto las imágenes son
redimensionadas a un tamaño de 416 x 416 a través del cambio de un parámetro en el archivo de
configuración de yolo.
No obstante, es posible que las personas que deseen interactuar con modelos de inteligencia artificial no
posean una computadora con las características descritas anteriormente. Para resolver este obstáculo se
puede hacer uso de Google Collaboratory, el cual es un servicio en la nube basado en Jupyter Notebooks
que pretende ayudar en lo que a respecta a educación e investigación en el campo del machine learning
proporcionando el acceso a un ambiente configurado exclusivamente para Deep Learning que cuenta con
una GPU robusta [18]. Básicamente, es un servicio que permite el disponer de una computadora con
excelentes características de rendimiento y con la facilidad de administrarla de manera remota.
Los pasos seguidos en el proceso para ejecutar el entrenamiento en Google Collaboratory son similares a
los realizados por Carneiro et al. Quienes implementaron una aplicación de clasificación de objetos y
dividieron el proceso en dos etapas [18]. La primera etapa consistía en cargar el dataset a la memoria de la
computadora para realizar un preprocesamiento que consistía en normalizar las imágenes convirtiéndolas
en vectores de unos y ceros. La segunda etapa, comprendía construir, compilar y entrenar una red
neuronal. Todo esto no sin antes dividir el dataset en una parte para el entrenamiento y otra para la
evaluación de la red neuronal clasificadora de objetos.
En nuestro caso en particular existen cuatro etapas para entrenar el modelo de inteligencia artificial. Las
cuales se describen a continuación.
A. Configuración del entorno para la ejecución
Google Collaboratory tiene una característica peculiar. Borra todos los archivos que se hayan
almacenado en la computadora una vez que ha transcurrido un intervalo de tiempo específico desde que
se inicia a utilizarla. Es por esto que si se requiere utilizar los resultados generados por la computadora en
la que se ejecuta el archivo collaboratory, se deben respaldar en algún otro espacio de almacenamiento
ajeno al entorno virtual que provee google. Una alternativa viable es almacenar los resultados en una
carpeta de google drive. Para entrenar el modelo de inteligencia artificial se gestionaron todos los
archivos en una carpeta de google drive que contenía todo lo necesario para realizar el entrenamiento y
almacenar los resultados.
Desde el archivo definido en google collaboratory se puede acceder a el contenido de cada una de las
carpetas. A continuación se detalla el contenido de cada una de las carpetas:
● Backup:​ Almacenará los pesos resultantes del entrenamiento del modelo.
● Bin: Almacena una versión compilada de darknet para transferir ese ejecutable a la computadora
de google.
● Cfg: ​Contiene el archivo de configuración del modelo de YOLO versión 3 a utilizar en el
entrenamiento.
● CuDNN: Almacena el archivo de cuDNN. El cual es una librería que requiere la tarjeta gráfica
Nvidia para utilizar el aceleramiento por GPU en el entrenamiento. La versión del cuDNN
dependerá de la versión de Nvidia de la computadora en cuestión.
● Data: Almacenará los archivos resultantes del proceso del etiquetado que al final representan el
dataset de entrenamiento.
B. Preparación del entorno de configuración
Antes de iniciar con la programación del entrenamiento en el archivo de Google Collaboratory se
deben realizar los siguientes pasos:
1. En la pestaña de entorno de ejecución se debe seleccionar la opción cambiar tipo de
ejecución. Para esto se debe decidir entre la versión 3 o dos de python. Para el caso del
proyecto se eligió la versión 3.
2. En la ventana de cambiar tipo de ejecución. Se debe indicar que se requiere utilizar el
acelerador por hardware empleando la GPU.
C. Programación en el archivo de Google Collaboratory
Lo que resta ahora es programar el archivo de Google Collaboratory para que utilice desde la
carpeta de google drive los archivos que el modelo de yolo necesita para ser entrenado.

D. Ejecutar entrenamiento

233
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Se debe ejecutar el archivo de google collaboratory. Esto mostrará impresiones en consola que
retroalimentaran acerca del estado del entrenamiento. Información como la cantidad de iteraciones
realizadas, la cantidad de imágenes utilizadas y el promedio de pérdida (el error en las detecciones
realizadas). El promedio de pérdida (AVG IOU) debe disminuir con cada iteración y se puede detener el
entrenamiento cuando su valor es muy cercano a cero. En la carpeta backup de google drive se guardarán
los pesos generados por el entrenamiento cada vez que se ejecute una cantidad específica de iteraciones.
En la implementación actual las imágenes son ´pre procesadas pero solo se realiza un
redimensionamiento, podría pensarse también en aplicar filtros (escala de grises, detección de bordes) que
permitan un proceso de entrenamiento más rápido al utilizar imágenes que requieren menos espacio de
almacenamiento y más óptimo en el sentido de que no se procesan las imágenes en su estado puro sino
que se ajustan para facilitar el procesamiento de las mismas.
E. Integración entre la Raspberry Pi Zero y el modelo de inteligencia artificial
Para la integración de ambos componentes se hace uso de un servidor local. Este como tal está
constantemente recibiendo un streaming de video por parte de la cámara conectada al raspberry pi. Una
vez que se recibe el video, este es analizado por el modelo Yolo previamente entrenado. Al detectar el
objeto de interés (en este caso lechugas), este es procesado y se devuelve el resultado de dicha operación
en pantalla. El streaming desde la raspberry hacia cualquier dispositivo es tan solo un medio para acceder
al video que está capturando la cámara conectada a la Raspberry Pi Zero. Este método resulta útil porque
cualquier dispositivo puede tener acceso al streaming a través de la dirección ip de la Raspberry y un
número de puerto específico. Aún así existen otros métodos para transmitir archivos entre una Raspberry
y una computadora como lo es el envío de archivos empleando el protocolo SSH. El problema al utilizar
el protocolo SSH sería que la manera en que se establece la comunicación con la Raspberry dependería
del lenguaje de programación que se utilice en la computadora, esto no ocurre con el método del
streaming. La razón para utilizar una raspberry pi y el streaming de video para la captura y envió de
información (en este caso videos), es una tendencia común en el desarrollo de sistema de análisis y
reconocimiento de objetos, y asimismo como en la implementación de sistemas de vigilancia. Un ejemplo
de esto ocurre en el proyecto de Suárez et al, en el cual se propone un sistema robótico para la vigilancia
de ambientes, y la detección de intrusos o fuego. Todo esto utilizando una raspberry pi, una cámara
integrada, y la transmisión de video en tiempo real hacia un cliente. [19]
El esquema de funcionamiento es el siguiente:

Figura 4. Diagrama de Integración

F. Implementación del bot para notificaciones y consulta


Ya que mediante la Raspberry Pi Zero se obtienen diferentes datos, tales como la temperatura y
la humedad, la forma de que un usuario pueda consultarlo es mediante el uso de un bot de Telegram
desarrollado utilizando Python como lenguaje de programación. Dicho bot cuenta con los siguientes
comandos:
1. subscribeme:​ Comando necesario para suscribirse al bot y poder recibir mensajes.
2. unsubscribeme: Comando que hace que un usuario no este suscrito al bot, por consecuencia, no
puede recibir los datos que este proporciona
3. temperature:​ Comando que consulta la temperatura que se tiene almacenada en Cayenne.
4. humidity:​ Este comando realiza una consulta a Cayenne para saber la humedad.

Por otra parte, con el reconocimiento de las lechugas que se encontraban listas para ser cortadas, se debía
cambiar el mecanismo utilizado para enviar mensajes, principalmente porque en este caso el usuario no
debía enviar un mensaje para que el bot respondiera. Dado esto, se decidió utilizar un API proporcionado
por Telegram, el cual cumple con la función de enviar un mensaje a un usuario suscrito al bot sin un
comando previo. La implementación actual del bot es eficaz y contempla la recepción de comandos y el
envío de mensajes a los clientes cuando se detectaron lechugas listas para corta. Sin embargo, el
algoritmo encargado del envío de mensajes haciendo uso del API de telegram aún no es del todo eficiente

234
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

ya que luego que se envía un mensaje espera alrededor de un segundo para enviar el siguiente y así no
alcanzar el límite de mensajes enviados que establece el API. Lo anterior implica que si se debe notificar
a 100 personas la última recibiría el mensaje 1 minuto y 39 segundos más tarde. Es por ello que este
algoritmo puede ser optimizado.
En algunas investigaciones también han hecho uso de bots de Telegram como medio para notificar a los
usuarios, entre las investigaciones se encuentran las siguientes:
Un caso similar se presenta en [20], mediante el uso de una Raspberry Pi 3 y diferentes sensores,
pueden obtener datos del ambiente (temperatura, humedad, pH, entre otros), hace posible para los
agricultores hidropónicos consultar estos datos para tener información de sus cultivos desde cualquier
lugar utilizando un bot de Telegram para consultar los datos recolectados con estos sensores.
Por otra parte [21] utiliza un bot de Telegram para notificar al usuario sobre los tipos de árboles
mediante el uso de fotos, la clasificación de estos se hace mediante el uso de diferentes librerías que posee
el lenguaje de programación Python, por su parte, el bot es el encargado de notificar al usuario sobre el
tipo de árbol que el algoritmo de detección concluyó que era correcto según la imagen suministrada.
A su vez [22] expone acerca de los beneficios del uso de Telegram en temas relacionados al IoT,
además, deja clara la ventaja de esta aplicación con respecto a otras en cuanto a eficiencia, rapidez e
incluso seguridad. En el documento se propone el uso de una Raspberry Pi y el bot de Telegram para que
este notifique cuando una persona se encuentra cerca de la puerta de nuestro hogar. Es decir, toma una
imagen de la persona que se encuentra cerca de la puerta y la envía a la persona que está suscrita al bot.
Asimismo, [23] expone en su documento el uso de un modelo de YOLO para el conteo de
insectos con el fin de evitar plagas en cultivos agrícolas, para ello se hizo el uso de dispositivos como una
Raspberry Pi y una cámara. Dicha cámara toma imágenes de los insectos, realiza un conteo y clasificación
basado en los insectos voladores. El uso de este método hace más eficiente todo el proceso de conteo, que
normalmente se debe realizar de manera manual y además de ser un trabajo que consume mucho tiempo y
en ocasiones es ineficiente.
Por su parte, [24] expone acerca del uso de un bot de Telegram para el monitoreo y control de un
invernadero experimental, entre los datos que se pueden consultar mediante el bot se encuentran la
temperatura interior, la higrometría, la presión atmosférica, entre otros. Además, el bot es capaz de
notificar si algún parámetro excede el límite, por ejemplo, que la temperatura esté más alta de lo normal.
El uso de esta aplicación facilita el manejo de datos generados por diferentes sensores y es posible que
más de una persona tenga acceso a estos en tiempo real.
En el trabajo realizado por [25], al igual que en trabajos anteriores, se hace uso de un bot para manejar la
información generada por varios sensores instalados en un viñedo. Estos datos pueden ser utilizados para
evitar enfermedades de los cultivos para mejorar su crecimiento y las falencias presentes en las
instalaciones donde se instalan los sensores.

III. DISCUSIÓN
G. Integración entre la Raspberry Pi Zero y Cayenne
Para esta parte del proyecto la integración entre estos componentes de hardware, su
configuración y su uso fue un proceso intenso de investigación ya que no siempre se posee la oportunidad
de trabajar con dispositivos de IoT. Sin embargo, una vez realizado este trabajo se ve la gran utilidad que
tiene este tipo de trabajos en los que la parte de control de ambientes, la agricultura, industria, etc pueden
sacar gran provecho por el bajo costo de implementación, mantenibilidad y de riesgos que poseen. Como
se vió en el proceso de desarrollo con los trabajos relacionados, son grandes oportunidades de uso, incluso
un uso comercial es posible, por ejemplo venta de los datos obtenidos a personas físicas o jurídicas que lo
requieran, venta de datos previamente analizados y graficados, las posibilidades son casi infinitas.
Aunque como se pudo observar en la etapa de desarrollo, se tuvo la problemática de que al estar el
SenseHat tan cerca de la raspberry, afectaba las lecturas de la temperatura. Esto es totalmente
solucionable con un cableado adecuado y si es posible, un calibrado sobre el calor que produce el mismo
SenseHat. También se podría realizar una implementación de conexión periférica para controlar el
hardware por comandos externos sin necesidad de tener que entrar a la interfaz de Raspbian, ya que los
bajos recursos que el hardware provee hacen difícil poder utilizar el sistema desde la Raspberry. Como
tal, esto fue una gran limitante puesto que 512mb de memoria primaria no son lo suficiente para el control
del sistema. O incluso por una conexión ssh, definiendo los comandos requeridos y permitiendo poder
agregar más en un futuro.

235
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

H. Entrenamiento del modelo de YOLO


Una vez finalizado el entrenamiento con una cantidad de iteraciones igual a 7000 se procede a
verificar su rendimiento y capacidad de reconocimiento de lechugas listas y no listas para cortar. Las
siguientes dos imágenes son ejemplos de detecciones realizadas por el modelo de yolo.

Figura 5. Ejemplo detección lechuga lista

Figura 6. Ejemplo detección lechuga no lista

El modelo fue probado con 35 imágenes que no se incluyeron en el conjunto de imágenes de


entrenamiento. Del total de 35 imágenes 20 de ellas corresponden a lechugas listas para corta y las
restantes 15 a lechugas que aún no debían cortarse. Las detecciones en las 20 imágenes de lechugas listas
fueron acertadas en todos los casos con un nivel de confianza mayor a 95\%. En cuanto a la detección de
lechugas no listas para cortar en 14 de las 15 imágenes fue exitosa la detección, solo hubo un fallo en una
de las imágenes.
Como tal, a pesar de que el modelo no fue entrenado con un gran número de imágenes su efectividad
suele ser muy alta.
I. Integración entre la Raspberry Pi Zero y el modelo de inteligencia artificial
Dado que se realiza streaming mediante la Raspberry Pi Zero, se debe acceder a este y ejecutar el modelo
de YOLO en torno a este. El streaming es totalmente en vivo, por lo que cuando la cámara que está
enfocada en el streaming detecta una lechuga, el algoritmo del modelo entrenado debe determinar si lo
que está viendo en ese momento es una
lechuga lista, en caso de que lo sea, debe notificarse a los usuarios suscritos al bot de Telegram.
J. Implementación del bot para notificaciones y consulta
Luego de la implementación y posterior integración de todos los módulos anteriormente expuestos, los
resultados generados por el bot fueron satisfactorios. A continuación, se presentan los resultados:

Figure 7. Mensaje del bot sobre temperatura y humedad

La consulta de temperatura y humedad realizada mediante el bot al servidor de Cayenne muestra los datos
deseados de forma correcta. Los datos mostrados son los más actuales en almacenarse en el servidor, por
lo cual, se tiene información sumamente importante, la cual puede evitar pérdida de cultivos,
enfermedades, entre otros.

236
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figure 8. Notificación de lechuga lista

En cuanto a la detección de lechugas listas y su posterior notificación mediante el bot, esta funciona según
lo planteado en un inicio. Una vez que el modelo de YOLO detecta una lechuga lista en el streaming
generado por la Raspberry Pi, se envía un mensaje a todas las personas suscritas previamente al bot.

IV. CONCLUSIONES
En cuanto a Cayenne, Sense Hat y la Raspberry Pi, se pudo leer exitosamente de forma remota las
lecturas locales de los sensores desde la plataforma Cayenne mediante el dashboard que ellos proveen.
Además de esto, con ayuda de el servicio Cayenne Cloud API, se pudo crear APIS para cada sensor y con
esto poder crear el bot de telegram. Con ello se abren grandes posibilidades de crear más aplicaciones de
terceros para consumir los datos ya que dicha API es totalmente libre y en línea. Al haber acoplado el
SenseHat sobre las Raspberry Pi, se tuvo problemas con la alteración de la temperatura debido a la
cercanía del CPU de la Raspberry. Sin embargo, esto fue solucionado parcialmente con la conexión
mediante una faja de 40 pines, la cual hace que el board SenseHat no esté tan cerca de una fuente de calor
como lo es el CPU. Otro punto a tomar en consideración es que Cayenne almacena la última lectura de los
datos, incluso con una fecha y hora (timestamp) por lo que siempre se obtendrá datos relevantes con
información útil al consultar los APIS creados. Sense Hat provee una matriz de píxeles de 8x8, en el cual
se puede mostrar información importante, incluso caracteres ya sea del alfabeto o numéricos, esto para
por ejemplo mostrar la temperatura actual o algún otro parámetro. En el caso de este proyecto, dicha
matriz no funcionaba correctamente pero se puede utilizar perfectamente para pintar colores y que estos
signifiquen algo para el usuario, como que alumbre rojo cuando la temperatura llega a un máximo dado.
En lo que respecta a la detección de lechugas con el modelo de YOLO, este es capaz de detectar lechugas
listas y no listas para corta y para las pruebas realizadas su capacidad de reconocimiento fue óptimo. No
obstante, puede mejorarse el modelo si previo al proceso de entrenamiento se aplica un pre procesamiento
más especializado a las imágenes. Esto debido a que Yolo por defecto redimensiona las imágenes a un
tamaño de 416 x 416 sin importar el tamaño de la imagen original que debe reconocerse o utilizarse en el
entrenamiento, lo que significa que existe la posibilidad de que se produzca una distorsión grave en la
forma de los objetos en el proceso de redimensionamiento de las imágenes si existe una diferencia
considerable entre el alto y ancho de las imágenes de entrenamiento [26]. Sería una buena opción buscar
filtros que puedan aplicarse a las imágenes previo al entrenamiento que posibiliten la mitigación de este
efecto. Asimismo, es importante señalar que las imágenes de entrenamiento y las que el modelo deba
procesar para detectar objetos deben ser del mismo tamaño.
El modelo de Yolo puede ser generalizado para reconocer cualquier tipo de cultivo. El caso de las
lechugas resulta complejo ya que presenta muchas variaciones en cuanto a forma y color. Además, es
posible que el modelo disminuya su precisión de detección si en el huerto las lechugas se encuentran muy
próximas a otras. La versión 3 de YOLO es más precisa pero requiere un poco más de tiempo en el
procesamiento de las imágenes. La versión 3 tiny sería una buena opción si es necesario mayor rapidez en
el análisis, sin embargo es menos precisa y no se recomienda utilizarla si se deben categorizar una gran
cantidad de cultivos como listos o no para corta.
Gracias a las facilidades que genera Telegram para el uso del bot, es posible realizar diversas acciones de
forma simple, además, la obtención de datos tanto de Cayenne como los generados por el modelo de
YOLO y su respectiva vista mediante el uso del bot fue satisfactoria. Es importante aclarar que se debe
tener cuidado especialmente con el envío de mensajes, porque Telegram tiene definido un máximo de
mensajes enviados permitidos por minuto a través del bot.

V. REFERENCIAS BIBLIOGRÁFICAS

[1] M. Dholu and K. A. Ghodinde. Internet of things (iot) for precision agricultn Trendsin Electronics and Informatics (ICOEI), pages 339–342,
May 2018.
[2] S. Pallavi, J. D. Mallapur, and K. Y. Bendigeri. Remote sensing and controlling of greenhouse agriculture parameters based on iot. In 2017
International Conference on Big Data, IoT and Data Science (BID),pages 44–48, Dec 2017.

237
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[3] ̇I. H. Erden and ̈O. Tozan. Remote sensors and mobile technologies for precision agricultural data. In2015 Fourth International Conference
onAgro-Geoinformatics (Agro-geoinformatics), pages 105–108, July 2015.
[4] S. A. Z. Rahman, K. Chandra Mitra, and S. M. Mohidul Islam. Soil classification using machine learning methods and crop suggestion based
on soil series. In2018 21st International Conference of Computer and Information Technology (ICCIT), pages 1–4, Dec 2018.
[5] S. D M, Akhilesh, S. A. Kumar, R. M G, and P. C. Image based plant disease detection in pomegranate plant for bacterial blight. In2019
International Conference on Communication and Signal Processing(ICCSP), pages 0645–0649, April 2019.

[6] Randy E. Angelia and Noel B. Linsangan. Fermentation level classifi-cation of cross cut cacao beans using k-nn algorithm. InProceedings of
the 2018 5th International Conference on Bioinformatics Research andApplications, ICBRA ’18, pages 64–68, New York, NY, USA,
[Link].
[7] Jesse Dave S. Selda, Roi Martin R. Ellera, Leandro C. Cajayon, II,and Noel B. Linsangan. Plant identification by image processing of leaf
veins. InProceedings of the International Conference on Imaging,Signal Processing and Communication, ICISPC 2017, pages 40–44,New York,
NY, USA, 2017. ACM.
[8] S. Dutta, A. Mitra, S. Chatterjee, S. Lodh, and S. Mukherjee. A sensor-based approach to monitor a specific plant sustainable environment
with additional automated rehydration module. In2017 4th InternationalConference on Opto-Electronics and Applied Optics (Optronix), pages
1–6, Nov 2017.
[9] R. E. N. Sisyanto, Suhardi, and N. B. Kurniawan. Hydroponic smart farming using cyber physical social system with telegram
messenger.In2017 International Conference on Information Technology Systems and Innovation (ICITSI), pages 239–245, Oct 2017.
[10] S. Zemouri, D. Magoni, A. Zemouri, Y. Gkoufas, K. Katrinis, andJ. Murphy. An edge computing approach to explore indoor
environ-mental sensor data for occupancy measurement in office spaces. In2018 IEEE International Smart Cities Conference (ISC2), pages
1–8,Sep. 2018.
[11] H. Tavares, B. Prado, K. Bispo, and D. Dantas.A non-intrusive approach for smart power meter. In2018 IEEE 16th InternationalConference
on Industrial Informatics (INDIN), pages 605–610, July2018.
[12] D. Priyanka, K. Dharani, C. Anirudh, K. Akshay, M. P. Sunil, and S. [Link]. Traffic light and sign detection for autonomous land
vehicle using raspberry pi.In2017 International Conference on InventiveComputing and Informatics (ICICI), pages 160–164, Nov 2017.
[13] R. Ullah, A. B. M. Said, M. Q. Saleem, J. Jaafar, and I. Ullah. Semantic ontology for annotated images. In2016 3rd International
Conference
onComputer and Information Sciences (ICCOINS), pages 408–413, Aug2016.
[14] Ahmad Arib Alfarisy, Quan Chen, and Minyi Guo. Deep learning based classification for paddy pests diseases recognition. InProceedings
of2018 International Conference on Mathematics and Artificial Intelli-gence, ICMAI ’18, pages 21–25, New York, NY, USA, 2018. ACM.
[15] R. Zhang, Y. Yang, W. Wang, L. Zeng, J. Chen, and S. McGrath. An algorithm for obstacle detection based on yolo and light filed
camera.In2018 12th International Conference on Sensing Technology (ICST),pages 223–226, Dec 2018.
[16] Joseph Redmon. Darknet: Open source neural networks in c. [Link] 2013–2016.
[17] J. Zhou, L. Feng, R. Chellali, and H. Zhu. Detecting and tracking objects in hri: Yolo networks for the nao “i see you” function*.
In201827th IEEE International Symposium on Robot and Human InteractiveCommunication (RO-MAN), pages 479–482, Aug 2018.
[18] T. Carneiro, R. V. Medeiros Da N ́obrega, T. Nepomuceno, G. Bian,V. H. C. De Albuquerque, and P. P. R. Filho. Performance analysis of
google colaboratory as a tool for accelerating deep learning [Link] Access, 6:61677–61685, 2018.
[19] Jonay Su ́arez-Armas, Pino Caballero-Gil, and C ́andido [Link] surveillance robot powered by raspberry pi. InProceedings of
the 1st International Conference on Internet of Things and MachineLearning, IML ’17, pages 39:1–39:4, New York, NY, USA, 2017. ACM.
[20] R. E. N. Sisyanto, Suhardi, and N. B. Kurniawan. Hydroponic smart farming using cyber physical social system with telegram
messenger.In2017 International Conference on Information Technology Systems and Innovation (ICITSI), pages 239–245, Oct 2017.
[21] D. Korotaeva, M. Khlopotov, A. Makarenko, E. Chikshova, N. Startseva,and A. Chemysheva. Botanicum: a telegram bot for tree
classification.In2018 22nd Conference of Open Innovations Association (FRUCT),pages 88–93, May 2018.
[22] R. G. Anvekar, R. M. Banakar, and R. R. Bhat. Design alternatives for end user communication in iot based system model. In 2017 IEEE
Technological Innovations in ICT for Agriculture and RuralDevelopment (TIAR), pages 121–125, April 2017.
[23] Y. Zhong, J. Gao, Q. Lei, and Y. Zhou.A vision-based counting and recognition system for flying insects in intelligent [Link]
18, 2018. Cited By :3.
[24] Youssef Ben Akka, Abderrafii Rahali, Hassane Alami, and El Arbi Ab-dellaoui Alaoui. Control and command of several greenhouses via
tele-gram messenger. InProceedings of the 2Nd International Conference on Networking, Information Systems & Security, NISS19, pages
1:1–1:9, New York, NY, USA, 2019. ACM.
[25] Gustavo Mostac ̧o, Leonardo Campos, ́Icaro Souza, and Carlos Cug-nasca. Agronomobot: a smart answering chatbot applied to agricultural
sensor networks. 06 2018.
[26] H. Jeong, K. Park, and Y. Ha. Image preprocessing for efficient training of yolo deep learning networks. In2018 IEEE International
Conferenceon Big Data and Smart Computing (BigComp), pages 635–637, Jan2018

238
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Selección de Atributos Distribuida:


Una revisión de las herramientas y
literatura reciente

Distributed Feature Selection:


A review of recent tools and literature
Raúl José Palma Mendoza
Universidad Nacional Autónoma de Honduras
[Link]@[Link]

Resumen — La selección de atributos es una técnica de preprocesamiento de datos que se utiliza para reducir la
cantidad de atributos que tiene un conjunto de datos, escogiendo aquellos que son más relevantes y descartando
los que son redundantes. En la actual era del big data, su importancia se nota aún más debido a que muchas de
las técnicas de minería de datos e incluso de selección de atributos existentes se vuelven incapaces de procesar
los conjuntos de datos demasiado grandes que se encuentran cada vez más frecuentemente. La selección de
atributos distribuida se plantea como una opción valiosa en el diseño y creación de algoritmos que sean capaces
de tratar estos grandes conjuntos de datos. Este trabajo inicia con una presentación de los conceptos teóricos
que fundamentan que el tema de selección de atributos distribuida, continua luego con una discusión de las
herramientas más importantes disponibles para su implementación y finaliza con una clasificación y revisión de
la literatura reciente relacionada con el tema en cuestión.

Selección de atributos; mineria de datos; big data; sistemas distribuidos.


Abstract — Feature selection is a data preprocessing technique that is used to reduce the number of features that
a data set has, choosing those that are more relevant and discarding those that are redundant. In the current
era of big data, its importance is even more evident because many of the data mining and even the existing
feature selection techniques become incapable of processing the large data sets that are found more and more
frequently. Distributed feature selection is considered as a valuable option in the design and creation of
algorithms that can handle those large data sets. This work begins with a presentation of the theoretical concepts
that support the topic of distributed feature selection, then continues with a discussion of the most important
tools available for its implementation and ends with a classification and review of recent literature related to the
topic in question.

Feature selection; data mining; big data; distributed systems.

I. INTRODUCCIÓN
En los últimos años, un fenómeno conocido como big data ha sido reconocido en los campos académico
e industrial. Esencialmente, el big data se refiere a la creciente cantidad de datos que está produciendo la
sociedad de la información actual en prácticamente todas las áreas del conocimiento. Junto con el big data,
han surgido desafíos sin precedentes para los científicos, ingenieros y profesionales que trabajan con datos
y pretenden aprovechar su valor. El aumento exponencial en la cantidad de datos que están disponibles para
ellos hace que la tarea de procesar y analizar estos datos sea compleja y altamente exigente de recursos
computacionales.
Para generar valor a partir de los datos se debe seguir un proceso. El proceso de descubrimiento de
conocimiento en bases de datos (proceso KDD por sus siglas en inglés) [1] es un marco general que indica
los pasos que se deben seguir para obtener conocimiento valioso de un conjunto de datos. El paso central en
el proceso KDD se conoce como “minería de datos” en cual se utilizan técnicas especiales para crear un

239
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

modelo que extrae patrones útiles y valiosos (conocimiento) de los datos. Otro paso importante del proceso
de KDD es el “preprocesamiento de datos”, éste es un paso preparatorio pero notable, que, si no se realiza
con cuidado, puede hacer imposible obtener conocimiento valioso a partir de los datos. Además, el
preprocesamiento de datos es un paso general que involucra muchas técnicas que pueden aplicarse a los datos
originales, una de esas técnicas se conoce como “selección de atributos”.
La selección de atributos, en un sentido amplio, es una técnica de preprocesamiento de datos que se utiliza
para reducir la cantidad de atributos que tiene un conjunto de datos. En términos simples, si se considera que
un conjunto de datos está formado por un grupo de instancias, sean éstas: correos electrónicos, pacientes,
intentos de conexión, perfiles de usuario, imágenes, etc.; los atributos son las propiedades o características
almacenadas para cada instancia, por ejemplo, para un correo electrónico, los atributos pueden ser: asunto,
fecha de envío, remitente, destinatario, contenido, etc.
Según [2], las técnicas de selección de atributos se aplican para lograr al menos uno de los siguientes
objetivos:
• Mejorar la calidad de los resultados del modelo producido.
• Hacer que la creación (entrenamiento) de un modelo sea más eficiente en términos de consumo de
recursos computacionales.
• Mejorar los modelos resultantes haciéndolos más pequeños y más fáciles de entender.
La era actual de big data trae consigo la aparición frecuente de conjuntos de datos con alta
dimensionalidad, es decir, conjuntos de datos con un gran número de atributos que, para muchas de las
técnicas actuales de minería de datos, pueden causar el efecto conocido como “maldición de la
dimensionalidad” [3] que se refiere al hecho de que el número de pasos para crear un modelo que debe seguir
una técnica específica crece demasiado rápido con el número de atributos y la probabilidad de obtener un
modelo no válido o ningún modelo puede volverse demasiado alta cuando hay muchos atributos presentes.
En este contexto, la selección de atributos se convierte en un paso extremadamente importante dentro del
preprocesamiento de datos [4], convirtiéndose en algunos casos en la única forma de producir resultados
valiosos, especialmente para aquellas técnicas de minería de datos que son más sensibles a la maldición de
la dimensionalidad. Sin embargo, los conjuntos de datos de alta dimensión que aparecen hoy en día con más
frecuencia no solo pueden causar problemas a las técnicas de minería de datos sino también a las técnicas
tradicionales de selección de atributos, esto es especialmente cierto para los algoritmos de selección de
atributos multivariable, los cuales son de alta importancia ya que tienen la capacidad para considerar las
dependencias de las atributos en sus resultados, una propiedad deseable al aplicar una técnica de selección
de atributos. Además, las técnicas de selección de atributos (y la minería de datos en general) no solo pueden
verse afectadas por la cantidad de atributos que tiene un conjunto de datos, sino también por la cantidad de
instancias (filas). De manera similar, los problemas que surgen con al aumento en el número de instancias
están relacionados con un aumento en los recursos computacionales que exige el algoritmo. En algunos
casos, esta demanda excede los recursos disponibles y evita la ejecución del algoritmo. Además, a menudo
es conveniente considerar todas las instancias disponibles, especialmente en problemas complejos, ya que es
bien sabido que tener más instancias puede mejorar la calidad de los modelos resultantes [5]. Considerando
todo esto, en [6] se declara que “existe una evidente necesidad de adaptar los métodos de selección de
atributos existentes o proponer nuevos para enfrentar los desafíos planteados por la explosión de big data”,
y como una respuesta a esta evidente necesidad surge el concepto de “selección de atributos distribuida” que
tiene como uno de sus principales objetivos el desarrollo de algoritmos de selección de atributos escalables
capaces de enfrentar los desafíos que plantea el big data.
El documento a continuación está estructurado de la siguiente forma: la Sección II presenta los conceptos
teóricos acerca de los sistemas distribuidos que fundamentan la discusión de este trabajo, la Sección III
describe las herramientas y entornos de trabajo más relevantes en el área de computación distribuida para el
procesamiento de grandes volúmenes de datos. La Sección IV hace una revisión y clasificación de la
literatura reciente respecto al tema y, finalmente, la Sección V concluye el actual trabajo.
II. SISTEMAS DISTRIBUÍDOS
Según [7]: "Un sistema distribuido es una colección de elementos informáticos autónomos que se
presenta a sus usuarios como un sistema único y coherente". De esta definición se pueden destacar cuatro
aspectos importantes:
• Autonomía: los elementos que conforman el sistema pueden funcionar de manera independiente sin
ser parte del sistema.
• Elemento informático: no se dice nada sobre los elementos informáticos sobre si son hardware o
software, pueden ser cualquiera de ellos.

240
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• Sistema único: los elementos autónomos deben colaborar de alguna forma para que puedan verse
como una sola unidad. Esta colaboración implica que los elementos tienen que comunicarse entre
sí, otras definiciones como la dada por [8] especifican que esta comunicación se realiza a través del
paso de mensajes.
• Usuarios: Similar a los elementos de computación, no se dice nada acerca de los usuarios, pueden
ser personas o software.
A. Objetivos de Diseño
En [7] y [8] se coincide en que el objetivo principal del diseño de un sistema distribuido es habilitar o
permitir el intercambio de algún recurso. Este recurso puede ser prácticamente cualquier cosa, desde
periféricos de hardware, sensores, almacenamiento, archivos de datos, multimedia, servicios de software,
etc. Además, después de haber establecido los recursos que se van a compartir, hay importantes objetivos a
seguir al diseñar un sistema distribuido [7] que se describen brevemente a continuación.
• Transparencia. En muchos casos, la distribución de procesos y recursos quiere ocultarse (hacerse
transparente) del usuario final del sistema con el objetivo de hacer que el uso y la interacción con el
sistema sean menos complejos. El concepto de transparencia se puede aplicar en varios aspectos del
sistema, por ejemplo, la transparencia de acceso se refiere a la ocultación de las diferentes
representaciones de datos, sistemas de archivos, protocolos de comunicación de bajo nivel, sistemas
operativos, etc. La transparencia de la ubicación se refiere al hecho el usuario no puede saber dónde
se encuentra físicamente un objeto en el sistema, por ejemplo, una URL puede referirse a un host en
cualquier parte del planeta. Otro aspecto importante que se debe mencionar es la transparencia de
falla, esto ocurre cuando las fallas parciales del sistema están ocultas para el usuario y el sistema se
recupera automáticamente de ellas.
• Apertura. La apertura de un sistema está determinada por la facilidad con la que el sistema puede
ampliarse, utilizarse e integrarse en otros sistemas. Para lograr esto, el sistema debe seguir estándares
claramente definidos y sus interfaces clave deben estar bien documentadas y publicadas.
• Escalabilidad. En [9] se define la escalabilidad como "la capacidad de un sistema para acomodar un
número creciente de elementos u objetos, para procesar volúmenes crecientes de trabajo
adecuadamente y/o para ser susceptible de ampliación". Además de ser un objetivo de diseño, la
escalabilidad puede convertirse en la razón principal por la que se debe diseñar un sistema
distribuido. Por ejemplo, un sistema centralizado compuesto por un solo elemento informático puede
convertirse en un cuello de botella cuando la demanda supera sus capacidades, por lo que la solución
puede ser un sistema distribuido escalable.
Hay muchas dimensiones para medir la escalabilidad de un sistema, algunas de ellas tienden a ser
complejas y difíciles de diferenciar [9]. Sin embargo, en [10] se identifica tres dimensiones principales: la
escalabilidad de tamaño, la escalabilidad geográfica y la escalabilidad administrativa, siendo la escalabilidad
de tamaño la más notoria para los propósitos de este trabajo. Un sistema es escalable en tamaño cuando
puede crecer adecuadamente para soportar más usuarios o proporcionar más recursos compartidos. Este tipo
de escalabilidad está básicamente limitado por tres factores: la capacidad de cálculo del sistema, las
capacidades de almacenamiento y memoria (incluido el tamaño y la velocidad de transferencia) y el ancho
de banda de la red. Ante estos factores, se pueden seguir dos alternativas. Primero, el escalado vertical
consiste en el aumento de los recursos informáticos disponibles de los nodos del sistema que proporcionan
los servicios solicitados: actualizar sus CPU, memorias, interfaces de red, etc. Esta alternativa tiene un límite
obvio cuando los nodos no pueden mejorarse más. La segunda alternativa se conoce como el escalado
horizontal. En este caso, el sistema se expande agregando más nodos en lugar de mejorar los existentes, esta
será la única opción cuando el escalado vertical alcance su límite. También en muchos casos, el escalado
horizontal puede ser mucho más rentable, por lo que incluso se puede usar antes de tratar del escalado vertical
[11]. En [7] se menciona que básicamente hay solo tres técnicas para lidiar con la distribución bajo la
estrategia de escalado horizontal: la partición y distribución del trabajo, el ocultamiento de las latencias de
comunicación y la replicación, discutidas a continuación.
• Partición y distribución del trabajo. Esta técnica implica tomar un componente, dividirlo en partes y
luego distribuir esas partes entre los servidores disponibles. Por ejemplo, esta técnica se aplica en
DNS (Sistema de nombres de dominio de Internet) donde el “espacio de nombres” se divide en zonas
y los diferentes servidores asumen la responsabilidad de las diferentes zonas.
• Ocultamiento de las latencias de comunicación. La forma más común de ocultar estas latencias es
cambiando el esquema de comunicaciones síncronas tradicional en el que la aplicación solicitante
se bloquea hasta que la respuesta esté lista, a un esquema asíncrono donde la aplicación realiza una
solicitud y luego se interrumpe cuando la respuesta está lista. Sin embargo, no todas las aplicaciones
pueden aprovechar este tipo de comunicación.

241
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• Replicación. Replicar componentes en todo el sistema puede ser útil de muchas maneras. Ayuda a
aumentar la disponibilidad de un recurso: en el caso de que un nodo con una copia falle, el otro nodo
responde. El almacenamiento en caché es una forma especial de replicación, consiste en colocar los
recursos más cerca de sus usuarios, de esta manera se puede reducir la latencia. Además, una decisión
de diseño importante es ver si las réplicas serán mutables o inmutables. Si las réplicas son mutables,
entonces se necesita sincronización para evitar problemas de consistencia. Sin embargo, en la
mayoría de los casos, garantizar una consistencia estricta es muy difícil o imposible de implementar
de manera escalable [7]. Por esta razón, un sistema de base de datos distribuida como MongoDB
proporciona consistencia al leer y escribir en una copia principal de los datos [12], dando la opción
al desarrollador de la aplicación para que lea de otras copias que pueden no estar completamente
estado consistente.
B. Sistemas de computación distribuida
En. [7] se clasifica los sistemas distribuidos en tres categorías: sistemas de computación distribuida,
sistemas de información distribuidos y sistemas de computación generalizada. Por motivos de espacio, en
esta sección nos dedicamos únicamente a la primera categoría.
Como su nombre lo sugiere, los sistemas de computación distribuida están enfocados en realizar cálculos.
Esta categoría se puede subdividir a su vez en tres subcategorías dependiendo de la homogeneidad de los
nodos que conforman el sistema y si éstos son locales para una organización o están subcontratados.
• Computación en clústers. Según [13], los clústeres son, con mucho, la forma más común de
supercomputadora disponible. Están conformados por nodos que tienen configuraciones de
hardware y software similares o idénticas, comúnmente conectados a través de una red de área
local de alta velocidad y generalmente se crean como una forma de escalado horizontal para
realizar una tarea. Esta tarea se distribuye entre los nodos y se ejecuta de manera mucho más
eficiente que un solo nodo en términos de rendimiento relativo a costo [13]. Esta última
afirmación es especialmente cierta en lo que se conoce como “commodity clusters” que consiste
computadoras con hardware asequible y fácil de obtener.
• Computación en malla. De acuerdo con [14], la computación grid se puede describir en tres
términos. En primer lugar, “virtualización”, se refiere al hecho de que las grillas están
conformadas por “organizaciones virtuales”, entendidas como "grupos dinámicos de
organizaciones que coordinan el intercambio de recursos". Los siguientes dos términos se
derivan directamente del anterior: “heterogeneidad”, proviene del hecho de que las
organizaciones virtuales pueden tener diferentes nodos de computación en términos de
hardware, sistemas operativos y ancho de banda de red. El último término es “dinámico”
señalando que las organizaciones en una “organización virtual” pueden unirse y salir según sus
necesidades.
• Computación en la nube. El Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU.
define la computación en la nube como "el acceso de red bajo demanda a un conjunto
compartido de recursos informáticos configurables (por ejemplo, redes, servidores,
almacenamiento, aplicaciones y servicios) que se pueden aprovisionar rápidamente, con el
mínimo esfuerzo de administración o interacción con el proveedor de servicios" [15]. Debido a
su flexibilidad, la computación en la nube se puede usar para crear un clúster con nodos
homogéneos o heterogéneos que pueden ser administrados por una sola organización o por
múltiples organizaciones.
C. Computación paralela
De acuerdo con [16], la computación paralela en un sentido simple es "el uso simultáneo de múltiples
recursos informáticos para resolver un problema computacional". Estos recursos informáticos pueden incluir:
una sola computadora con varios procesadores, un número arbitrario de computadoras conectadas por una
red o una combinación de ambas. Esta definición amplia junto con la aclaración de lo que puede ser un
recurso de cómputo, nos puede llevar a observar que un sistema distribuido realiza cálculos paralelos y que
de hecho computación distribuida es un subconjunto de computación paralela donde los recursos
informáticos son dispositivos autónomos. Sin embargo, también hay definiciones más restringidas de lo que
es computación paralela. Por ejemplo, [7] asocia el concepto de procesamiento paralelo a la arquitectura
multiprocesador, donde se ejecutan múltiples hilos de control al mismo tiempo mientras se tiene acceso a los
datos compartidos en un dispositivo informático único. Con esta definición, computación paralela y
computación distribuida son conjuntos diferentes que se intersecan en el caso común donde los dispositivos
de computación internos de un sistema distribuido son dispositivos multiprocesador que realizan su trabajo
en paralelo. Además, bajo esta definición, la computación paralela es muy limitada en términos de
escalabilidad porque los dispositivos informáticos individuales a menudo están limitados en la cantidad de

242
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

memoria y procesadores que se pueden conectar al dispositivo. Esta última definición de computación
paralela se usa en este trabajo, a menos que se especifique lo contrario.
III. HERRAMIENTAS DE COMPUTACIÓN DISTRIBUIDA
Una vez presentadas las generalidades de los sistemas distribuidos, las siguientes dos secciones
profundizan en dos de las bibliotecas de computación distribuidas más importantes utilizadas en la era del
big data: MapReduce, Apache Hadoop y Apache Spark.
A. MapReduce
Teniendo en cuenta la clasificación dada en la sección anterior, “MapReduce” puede definirse como un
entorno de trabajo para implementar un sistema de computación distribuida. MapReduce fue presentado por
primera vez en [17] por Google Inc. como una herramienta importante utilizada para procesar las grandes
cantidades de datos con los que esta empresa trata todos los días. En muchos casos, los cálculos necesarios
para estos datos eran conceptualmente simples y la complejidad radicaba en la paralelización del trabajo, la
distribución de los datos y el manejo de las fallas que son comunes en los grandes clústers. MapReduce
aborda esta complejidad proporcionando los siguientes beneficios de un sistema distribuido:
• Transparencia de distribución en los cálculos. MapReduce proporciona transparencia en la
distribución de los cálculos al paralelizar automáticamente la ejecución de un programa en un clúster
potencialmente grande. La implementación de un programa MapReduce requiere la definición de
una función “map” que procesa un par clave/valor y devuelve un conjunto de pares intermedios
clave/valor, y una función “reduce” que produce resultados finales al fusionar todos los valores
intermedios asociado a la misma clave. Una vez que se definen estas dos funciones, MapReduce se
ocupa del trabajo necesario para paralelizar y distribuir el trabajo dividiendo los datos en trozos,
creando múltiples instancias de las funciones map y reduce, asignándolas y activándolas en las
máquinas disponibles en la infraestructura física, enviando resultados intermedios y asegurando el
óptimo desempeño de todo el sistema.
• Transparencia de fallas. MapReduce hace todo lo posible para ocultar y recuperarse
automáticamente de fallas. Un nodo maestro supervisa continuamente la ejecución en el clúster y, si
algún nodo deja de responder o falla, su trabajo se asigna automáticamente a otro nodo para
completarlo. El entorno de trabajo garantiza que si las funciones map y reduce provistas por el
usuario son deterministas, los resultados de una ejecución distribuida exitosa con fallas serán los
mismos que si se hubieran producido por una ejecución secuencial sin fallas.
• Transparencia de ubicación. Antes de la publicación de MapReduce, En [18] se introdujo GFS
(Sistema de archivos de Google) como un sistema de archivos distribuido y escalable para
aplicaciones de uso intensivo de datos. Según los autores, en el momento de la publicación, GFS se
implementó ampliamente en Google y, en el clúster más grande que lo implementaba, el sistema de
archivos almacenaba cientos de terabytes en más de mil máquinas y varios cientos de clientes
accedían al mismo tiempo. De manera similar a otros sistemas de archivos distribuidos, GFS
proporciona transparencia de ubicación al ocultar los nodos exactos donde se almacenan los datos y
al moverlos automáticamente por razones de equilibrio de carga o tolerancia a fallas. También
replica de forma transparente los datos para redundancia. GFS se usó más tarde como una de las
principales fuentes de datos para el motor MapReduce.
• Escalabilidad de tamaño. La escalabilidad del tamaño es el principal beneficio de MapReduce. Para
proporcionarlo, MapReduce sigue el enfoque de escalado horizontal, es decir, la potencia de cálculo
del sistema puede aumentar al agregar más nodos. Como se mencionó anteriormente, MapReduce
particiona automáticamente los datos en trozos y los asigna a los diferentes nodos, por lo que tener
más nodos implicará que hay menos datos para procesar. Sin embargo, agregar más nodos no
siempre implicará un aumento del rendimiento del sistema, otros factores pueden evitar que esto
suceda, siendo los siguientes los más relevantes:
o Comunicación de red. La cantidad de nodos que se pueden agregar a una red es limitada,
ya que tener demasiados nodos saturará los dispositivos de comunicaciones de la red que
afectan a todo el rendimiento del sistema.
o Los datos son pequeños. Cuando la cantidad de datos que recibe un nodo está por debajo
de un cierto umbral, puede ser más eficiente procesar todos los datos utilizando un número
menor de nodos, reduciendo así la transmisión de datos y la comunicación necesaria para
coordinar el trabajo.

243
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

B. Apache Hadoop
Apache Hadoop es un entorno de trabajo de código abierto para la computación de clústeres distribuidos
y el procesamiento de grandes conjuntos de datos. El proyecto fue cofundado por Doug Cutting y Mike
Cafarella, quienes se inspiraron en los artículos publicados por Google sobre el sistema de archivos de
Google (GFS) [18] y MapReduce [17]. Doug Cutting era un empleado de Yahoo cuando se publicó el
proyecto en 2006. El proyecto Hadoop se compone de cuatro módulos principales:
• Hadoop Common. Este módulo contiene las utilidades que dan soporte al resto de módulos de
Hadoop.
• Sistema de archivos distribuidos de Hadoop (HDFS). HDFS es un sistema de archivos distribuido
inspirado en GFS, es una de las tecnologías más utilizadas para manejar grandes datos no
estructurados y la base de todo el proyecto Hadoop.
• Hadoop YARN. YARN es un entorno de administración de recursos de clúster, toma contacto
directo con los clientes que desean hacer uso de un clúster de Hadoop, asigna recursos para las
aplicaciones mediante un programador de tareas, monitorea los trabajos y el estado de los nodos y
resuelve los fallos.
• Hadoop MapReduce. MapReduce aprovecha un clúster administrado por YARN para el
procesamiento de grandes conjuntos de datos utilizando el modelo de programación MapReduce de
Google. Por lo general, se alimenta con datos a altas tasas de transmisión procedentes de HDFS.
Al ser un proyecto de código abierto, Hadoop se convirtió en la herramienta estándar para el
procesamiento de big data [19], su nombre se mencionaba con tanta frecuencia junto con big data que es
posible encontrar frases en medios reconocidos como "Hadoop ha sido sinónimo de big data por años" [20].
Como se menciona en [21], en Yahoo, Hadoop se convirtió en una de las tecnologías subyacentes más
críticas. Inicialmente se aplicó a la búsqueda web, pero con el paso de los años, se convirtió en el centro de
muchos otros servicios con más de mil millones de usuarios, como la personalización de contenido para
aumentar el compromiso, la segmentación de anuncios y la optimización para servir el anuncio correcto al
consumidor adecuado, nuevas fuentes de ingresos mediante anuncios nativos y monetización de búsqueda
mediante móviles, correo anti-spam, etcétera.
Sin embargo, desde su publicación en 2006, han aparecido muchas herramientas con el objetivo de
mejorar los servicios ofrecidos por Hadoop. Con respecto a MapReduce, esta tecnología apareció en 2014
con el nombre de Apache Spark.
C. Apache Spark
Apache Spark actualmente se define a sí mismo como "Un motor de análisis unificado para el
procesamiento de datos a gran escala" [22]. Se publicó por primera vez en 2014, se desarrolló originalmente
en la AMPLab de Berkeley en la Universidad de California y actualmente es mantenido por Apache Software
Foundation. Desde su publicación, Spark ha pasado por una rápida evolución, cambiando su propia
definición en más de una ocasión y, al mismo tiempo, se ha convertido en uno de los entornos de trabajo más
populares para el análisis de big data según el reconocido sitio KDnuggets [23].
Spark y MapReduce son similares en muchos aspectos. En primer lugar, Spark también es un entorno de
computación distribuida, y tiene todos los beneficios mencionados para MapReduce, tales como:
transparencia en la distribución, manejo automático de fallos y recuperación y escalabilidad de tamaño. Sin
embargo, Spark tiene muchas ventajas sobre MapReduce, se diseñó desde el principio para manejar
eficientemente los trabajos iterativos en la memoria, como los que usan muchos esquemas de minería de
datos, ya que este fue uno de los principales problemas de MapReduce. Esto condujo al rápido desarrollo de
una biblioteca de aprendizaje automático conocida como MLib [24]. Más aun, además de la comparación
del autor de Spark [25], [26] donde Spark resulta ser hasta un 100% más rápido para ejecutar un modelo de
regresión logística que MapReduce de Hadoop, otras comparaciones [27] han demostrado que Spark es más
rápido que MapReduce en la mayoría de los algoritmos de análisis de datos probados. En segundo lugar,
cualquier programa MapReduce puede traducirse directamente a Spark, es decir, las primitivas Spark son un
superconjunto de MapReduce y todo el modelo de MapReduce se puede expresar completamente usando las
operaciones flatMap, groupByKey y map en Spark.
IV. SELECCIÓN DE ATRIBUTOS DISTRIBUIDA
Como su nombre lo indica, la selección de atributos distribuida se refiere al acto de realizar la selección
de atributos utilizando cálculos distribuidos, ejecutados por supuesto, en un sistema de computación
distribuido. Como se dijo anteriormente, La selección de atributos es una técnica de reducción de la
dimensionalidad que se ha convertido en un paso importante en la minería de datos. Su importancia se
observa claramente en la era actual de big data, donde el volumen, la velocidad (entendida como el aumento

244
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

en la tasa con la cual se obtienen datos) y la variedad de los datos siguen aumentando junto con la necesidad
de analizarlos para producir valor.
Muy pocas literatura se ha dedicado al tema literal de "selección de atributos distribuida" [28], [29] siendo
la obra en [30] quizás la más notable. La mayoría de los trabajos relacionados en el área prefieren usar el
término "selección de atributos paralela", incluso cuando muchos de ellos implementan soluciones que
utilizan entornos de computación distribuidos como MapReduce y Spark. Esta diferencia en el uso de
términos se debe a las diversas concepciones de computación paralela que se discutieron anteriormente donde
algunos lo consideran como un super conjunto de lo que es la computación distribuida y otros consideran
que se refieren a diferentes conjuntos que pueden intersectarse. Un ejemplo de esta última concepción es el
trabajo en [31] que incluye ambos términos: paralelo y distribuido en su título y presenta dos versiones del
algoritmo: una versión paralela para una sola máquina con una CPU de varios núcleos y una versión
distribuida implementada en un clúster de Hadoop.
Básicamente, existen dos razones principales para realizar la selección de atributos de manera distribuida.
La primera y más común razón es hacerlo como una respuesta al “problema de big data” en el campo de
selección de atributos. Aunque, los algoritmos de selección de atributos están diseñados para ayudar a las
técnicas de minería de datos a lidiar con la maldición de la dimensionalidad [3], el hecho es que, bajo el
esquema de big data, incluso los mismos algoritmos de selección de atributos pueden tener problemas para
lidiar con eso y con el creciente número de filas de los conjuntos de datos. La segunda razón para hacerlo se
produce cuando los atributos se distribuyen de forma inherente en diferentes ubicaciones y no se pueden
centralizar, tal vez porque pertenecen a diferentes organizaciones que tienen sus propias restricciones de
privacidad como en [32] o porque los datos se distribuyen en demasiadas ubicaciones distantes entre sí y se
vuelve poco práctico centralizarlos [33].
V. TRABAJOS RECIENTES
En los últimos años, se han realizado varios intentos para lograr métodos de selección de atributos más
escalables mediante la distribución o paralelización del trabajo. Este trabajo se puede clasificar según tres
enfoques: (i) orientado a la búsqueda, (ii) orientado a la división de datos, y (iii) orientado a los filtros.
A. Orientado a la búsqueda
Las paralelizaciones orientadas a la búsqueda representan la mayoría de los enfoques, ya que los aspectos
principales a paralelizar son (i) la búsqueda guiada por un clasificador y (ii) la evaluación correspondiente
de los modelos resultantes. Los siguientes estudios están clasificados en esta categoría:
• En [34] se desarrolló versiones paralelas de tres algoritmos de selección de atributos basados en
búsqueda hacia adelante, donde se utilizó un envoltorio con un clasificador de regresión logística
para guiar una búsqueda en paralelo utilizando el modelo MapReduce.
• En [35] se presenta un enfoque simple para la selección de atributos en paralelo, basado en la
selección de subconjuntos de atributos aleatorios y su evaluación en paralelo utilizando un
clasificador. En los experimentos, se utilizó un clasificador de máquina de soporte vectorial (SVM)
y, al comparar sus resultados con los de un enfoque de envoltorio tradicional, se encontró
precisiones más bajas, pero también tiempos de cálculo mucho más cortos.
• En [36] se usó el modelo de computación Spark para implementar una estrategia de selección de
atributos para clasificar el tráfico de red. Primero, se implementó una selección de atributos inicial
utilizando el filtro de puntuación de Fisher y luego se realizó, utilizando un enfoque de envoltorio,
una búsqueda hacia adelante distribuida sobre los mejores atributos. Sin embargo, como se usó el
filtro Fisher, solo se pudieron manejar atributos numéricos.
• En [37] se abordó el problema de escalabilidad de selección de atributos utilizando un enfoque de
búsqueda asíncrono, dado que la búsqueda síncrona, como se realiza comúnmente, puede llevar a
la pérdida de eficiencia cuando se cuanta con varios núcleos de procesamiento y éstos deben de
esperar a otros para que terminen sus tareas. En los experimentos, se obtuvo una reducción inicial
usando un filtro basado en información mutua [38] y luego se evaluó los subconjuntos usando un
clasificador basado en bosques aleatorios [39].
B. Orientado a la división de los datos
Estos enfoques tienen la característica principal de que la paralelización se realiza dividiendo el conjunto
de datos vertical u horizontalmente, luego aplicando los algoritmos existentes a las partes y finalmente
fusionando los resultados siguiendo ciertos criterios. Los siguientes estudios se pueden clasificar en esta
categoría:
• En [40] se usó el modelo MapReduce para implementar un método de selección de atributos de
búsqueda evolutiva basada en envoltorios. El conjunto de datos se dividió por instancias y el método
de selección de atributos se aplicó a cada subconjunto resultante. La votación por mayoría simple

245
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

se usó como un paso de reducción para los atributos seleccionadas y el subconjunto final de
atributos se seleccionó de acuerdo con un umbral definido por el usuario.
• En [30] se propuso un esquema para tratar los datos de alta dimensionalidad al clasificar
opcionalmente los atributos utilizando un filtro de selección de atributos, luego dividir
verticalmente los datos según los atributos (columnas) en lugar de, como se hace comúnmente,
según las instancias (filas). Después de la partición, se aplica otro filtro de selección de atributos a
cada parte y, finalmente, un procedimiento de fusión guiado por un clasificador obtiene un único
conjunto de atributos. Los autores experimentan con cinco filtros de selección de atributos de uso
común para las particiones y con cuatro clasificadores para la fusión final, sus experimentos
muestran que el enfoque que proponen reduce significativamente los tiempos de ejecución
manteniendo y, en algunos casos, incluso mejorando la capacidad predictiva de los modelos
resultantes.
C. Orientado a los filtros
Los filtros son un tipo de métodos de selección de atributos se basan únicamente en las propiedades
intrínsecas de los datos y con frecuencia requieren mucho menos recursos de cómputo en comparación con
otros tipos. Por esta razón, se convierten en una opción atractiva al tratar de procesar grandes cantidades de
datos. Sin embargo, los algoritmos de selección de atributos basados en filtros tienen complejidades
asintóticas que dependen de la cantidad de atributos y/o instancias en un conjunto de datos. Muchos
algoritmos, como la selección de atributos basada en correlación (CFS) [41] tienen complejidades
cuadráticas, mientras que otros de los algoritmos más utilizados tienen al menos complejidades lineales [6],
esto hace que ante grandes conjuntos de datos incluso este tipo de algoritmos puede volverse inutilizable.
Los trabajos incluidos en esta última categoría, incluyen filtros nuevos o rediseñados que son, o se vuelven,
inherentemente paralelos. A diferencia de los métodos en las otras categorías, los métodos de paralelización
y distribución en esta categoría se pueden ver como un elemento interno, en lugar de externo, del algoritmo.
• En [42] se presentó un método de selección de atributos paralelo y distribuida basado en un criterio
de preservación de la varianza utilizando el software propietario SAS. Una característica notable
del método es su compatibilidad no solo con la selección de atributos supervisada, sino también con
la selección de atributos sin supervisión donde no hay información de etiqueta disponible. Sus
experimentos se llevaron a cabo con conjuntos de datos con alta dimensionalidad y un gran número
de casos.
• En [43] se describieron versiones escalables del popular filtro de selección de atributos mRMR [38]
que incluía una versión distribuida con Spark. Los autores demostraron que su versión que
aprovechaba la potencia de un clúster de computadoras podía funcionar mucho más rápido que los
conjuntos de datos originales más grandes y procesados.
• En [44] se implementaron cuatro algoritmos de selección de atributos distribuidos, tres de ellos
filtros, a saber, InfoGain [45], ReliefF [46] y CFS [41], reducen los tiempos de ejecución con
respecto a las versiones originales. Sin embargo, en el caso del CFS, la versión de esos autores se
centra en los problemas de regresión en los que todos los atributos, incluida la etiqueta de la clase,
son numéricas, y las correlaciones se calculan utilizando el coeficiente de Pearson. Con respecto a
la implementación de ReliefF, incluso cuando el procesamiento se distribuye en un clúster Spark,
fue diseñado y probado para funcionar solo con conjuntos de datos que caben en la memoria de una
sola computadora, ya que requiere copiar todo el conjunto de datos en cada computadora del clúster.
Por lo que su implementación de ReliefF tiene limitaciones de escalabilidad.
• En [47] se presentó una versión rediseñada del algoritmo ReliefF [46] utilizando el modelo de
programación de Spark, la nueva versión denominada DiRelieF es capaz de procesar gran de
conjuntos de datos distribuidos en un clúster de forma escalable con mejores tiempos de
procesamiento y uso de memoria que la versión original.
• En [48], de forma similar al trabajo en [47] se presentó dos versiones rediseñadas, en esta ocasión,
del algoritmo CFS [41] utilizando también el modelo programación de Spark, los experimentos
realizados demuestran que las versiones propuestas denominadas DiCFS-hp y DiCFS-vp son
superiores a la versión original en cuanto a tiempo de ejecución y escalabilidad.
VI. CONCLUSION
El presentado trabajo, después de establecer la necesidad e importancia de la selección de atributos
distribuida, ha presentado una discusión de los conceptos fundamentales, y ha realizado una revisión de las
principales herramientas con que se cuenta a la hora de implementar técnicas de este tipo, así como también
ha revisado y clasificado la literatura reciente acerca del diseño y creación de nuevos métodos de selección
de atributos que sean escalables. Durante el desarrollo de dicha revisión, se ha observado que hay poca
literatura publicada bajo los términos de “selección de atributos distribuida” y la mayoría prefiere usar el

246
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

término “paralela” en vez de distribuida aunque se utilicen herramientas de computación distribuida. Más
importante aún, se observó que el uso de la distribución y paralelización son técnicas valiosas que han
permitido la creación de algoritmos de selección de atributos capaces de tratar con grandes volúmenes de
datos de forma escalable. Además, al considerar la importancia y utilidad de los métodos de selección de
atributos, el diseño, creación, comparación y evaluación de los métodos de selección de atributos distribuidos
se plantea como una promisoria línea de investigación.
VII. REFERENCIAS BIBLIOGRÁFICAS
[1] U. Fayyad, G. Piatetsky-Shapiro, and P. Smyth, “From Data Mining to Knowledge Discovery in Databases,” AI Mag., vol. 17,
no. 3, p. 37, 1996.
[2] I. Guyon and A. Elisseeff, “An Introduction to Variable and Feature Selection,” J. Mach. Learn. Res., vol. 3, no. 3, pp. 1157–
1182, 2003.
[3] R. Bellman, Dynamic Programming. Princeton University Press, 1957.
[4] J. González-Domínguez, V. Bolón-Canedo, B. Freire, and J. Touriño, “Parallel feature selection for distributed-memory
clusters,” Inf. Sci. (Ny)., Jan. 2019.
[5] A. Halevy, P. Norvig, and F. Pereira, “Unreasonable Effectiveness of Data,” 2009.
[6] V. Bolón-Canedo, N. Sánchez-Maroño, and A. Alonso-Betanzos, “Recent advances and emerging challenges of feature selection
in the context of big data,” Knowledge-Based Syst., vol. 86, pp. 33–45, 2015.
[7] M. van Steen and A. Tanenbaum, Distributed Systems. CreateSpace Independent Publishing Platform, 2017.
[8] G. Coulouris, J. Dollimore, and T. Kindberg, Distributed Systems: Concepts and Design, 5th ed. Pearson, 2011.
[9] A. B. Bondi, “Characteristics of scalability and their impact on performance,” in Proceedings of the second international
workshop on Software and performance - WOSP ’00, 2000, pp. 195–203.
[10] B. C. Neuman, “Scale in Distributed Systems,” Readings Distrib. Comput. Syst., pp. 463–489, 1994.
[11] M. Michael, J. E. Moreira, D. Shiloach, and R. W. Wisniewski, “Scale-up x scale-out: A case study using nutch/lucene,” in 2007
IEEE International Parallel and Distributed Processing Symposium, 2007, p. 441.
[12] “MongoDB FAQ Page,” 2018. [Online]. Available: [Link] [Accessed: 04-Oct-2018].
[13] T. Sterling, M. Anderson, and M. Brodowicz, High Performance Computing. Morgan Kaufmann, 2018.
[14] F. Magoules, J. Pan, K.-A. Tan, and A. Kumar, Introduction to grid computing. CRC Press, 2009.
[15] P. M. Mell and T. Grance, “The NIST definition of cloud computing,” Gaithersburg, MD, 2011.
[16] B. Barney, “Introduction to parallel computing,” Lawrence Livermore Natl. Lab., vol. 6, no. 13, p. 10, 2010.
[17] J. Dean and S. Ghemawat, “MapReduce: Simplified Data Processing on Large Clusters,” Commun. ACM, vol. 51, no. 1, p. 107,
2008.
[18] S. Ghemawat, H. Gobioff, and S.-T. Leung, “The Google file system,” in Proceedings of the nineteenth ACM symposium on
Operating systems principles - SOSP ’03, 2003.
[19] K. C. Li, H. Jiang, and A. Y. Zomaya, Big Data Management and Processing. CRC Press, 2017.
[20] M. Lodge, “Cloudera and Hortonworks merger means Hadoop’s influence is declining,” Venturebeat, 2018.
[21] S. Penchikala, “Peter Cnudde on How Yahoo Uses Hadoop, Deep Learning and Big Data Platform,” InfoQ, 2016.
[22] “Apache Spark Web Site.” [Online]. Available: [Link]. [Accessed: 05-Jan-2019].
[23] “KddNuggets.” [Online]. Available: [Link]. [Accessed: 02-Jan-2019].
[24] X. Meng et al., “MLlib: Machine Learning in Apache Spark,” J. Mach. Learn., vol. 17, pp. 1–7, 2015.
[25] M. Zaharia, M. Chowdhury, M. J. Franklin, S. Shenker, and I. Stoica, “Spark : Cluster Computing with Working Sets,”
HotCloud’10 Proc. 2nd USENIX Conf. Hot Top. cloud Comput., p. 10, 2010.
[26] M. Zaharia, M. Chowdhury, T. Das, and A. Dave, “Resilient distributed datasets: A fault-tolerant abstraction for in-memory
cluster computing,” NSDI’12 Proc. 9th USENIX Conf. Networked Syst. Des. Implement., pp. 2–2, 2012.
[27] J. Shi et al., “Clash of the Titans: MapReduce vs. Spark for Large Scale Data Analytics,” Proc. VLDB Endow., vol. 8, no. 13,
pp. 2110–2121, Sep. 2015.
[28] L. Zhao, Z. Chen, Y. Hu, G. Min, and Z. Jiang, “Distributed Feature Selection for Efficient Economic Big Data Analysis,” IEEE
Trans. Big Data, vol. 4, no. 2, pp. 164–176, Jun. 2018.
[29] A. K. Farahat, A. Elgohary, A. Ghodsi, and M. S. Kamel, “Distributed Column Subset Selection on MapReduce,” in 2013 IEEE
13th International Conference on Data Mining, 2013, pp. 171–180.
[30] V. Bolón-Canedo, N. Sánchez-Maroño, and A. Alonso-Betanzos, “Distributed feature selection: An application to microarray
data classification,” Appl. Soft Comput., vol. 30, pp. 136–150, May 2015.
[31] V. J. Hodge, S. O’Keefe, and J. Austin, “Hadoop neural network for parallel and distributed feature selection,” Neural Networks,
vol. 78, pp. 24–35, 2016.
[32] M. Banerjee and S. Chakravarty, “Privacy Preserving Feature Selection for Distributed Data Using Virtual Dimension,” in
Proceedings of the 20th ACM International Conference on Information and Knowledge Management, 2011, pp. 2281–2284.
[33] K. Das, K. Bhaduri, and H. Kargupta, “A local asynchronous distributed privacy preserving feature selection algorithm for large
peer-to-peer networks,” Knowl. Inf. Syst., vol. 24, no. 3, pp. 341–367, Sep. 2010.
[34] J. Kubica, S. Singh, and D. Sorokina, “Parallel Large-Scale Feature Selection,” in Scaling Up Machine Learning, no. February,
2011, pp. 352–370.
[35] D. J. Garcia, L. O. Hall, D. B. Goldgof, and K. Kramer, “A Parallel Feature Selection Algorithm from Random Subsets,” in
Proceedings of the intl. workshop on parallel data mining, 2004, pp. 1–12.
[36] Y. Wang, W. Ke, and X. Tao, “A Feature Selection Method for Large-Scale Network Traffic Classification Based on Spark,”
Information, vol. 7, no. 1, p. 6, Feb. 2016.

247
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[37] J. Silva, A. Aguiar, and F. Silva, “Parallel Asynchronous Strategies for the Execution of Feature Selection Algorithms,” Int. J.
Parallel Program., pp. 1–32, Feb. 2017.
[38] H. Peng, F. Long, and C. Ding, “Feature selection based on mutual information: criteria of max-dependency, max-relevance,
and min-redundancy.,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 27, no. 8, pp. 1226–38, Aug. 2005.
[39] T. K. Ho, “Random Decision Forests,” in Proceedings of the Third International Conference on Document Analysis and
Recognition (Volume 1) - Volume 1, 1995, pp. 278--.
[40] D. Peralta, S. del Río, S. Ramírez-Gallego, I. Riguero, J. M. Benitez, and F. Herrera, “Evolutionary Feature Selection for Big
Data Classification : A MapReduce Approach Evolutionary Feature Selection for Big Data Classification : A MapReduce
Approach,” Math. Probl. Eng., vol. 2015, no. JANUARY, 2015.
[41] M. A. Hall, “Correlation-based Feature Selection for Discrete and Numeric Class Machine Learning,” pp. 359–366, Jun. 2000.
[42] Z. Zhao, R. Zhang, J. Cox, D. Duling, and W. Sarle, “Massively parallel feature selection: an approach based on variance
preservation,” Mach. Learn., vol. 92, no. 1, pp. 195–220, Jul. 2013.
[43] S. Ramírez-Gallego et al., “Data discretization : taxonomy and big data challenge,” vol. 6, no. February, 2016.
[44] C. Eiras-Franco, V. Bolón-Canedo, S. Ramos, J. González-Domínguez, A. Alonso-Betanzos, and J. Touriño, “Multithreaded
and Spark parallelization of feature selection filters,” J. Comput. Sci., vol. 17, pp. 609–619, Nov. 2016.
[45] J. R. Quinlan, “Induction of Decision Trees,” Mach. Learn., vol. 1, no. 1, pp. 81–106, Mar. 1986.
[46] M. R. U. P. Igor Kononenko Marko Robnik-Sikonja, “ReliefF for estimation and discretization of attributes in classification,
regression, and ILP problems.”
[47] R. J. Palma-Mendoza, D. Rodriguez, and L. de-Marcos, “Distributed ReliefF-based feature selection in Spark,” Knowl. Inf.
Syst., vol. 57, no. 1, pp. 1–20, Jan. 2018.
[48] R. J. Palma-Mendoza, L. de-Marcos, D. Rodriguez, and A. Alonso-Betanzos, “Distributed correlation-based feature selection in
spark,” Inf. Sci. (Ny)., 2018.

248
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Análisis de la aplicación del modelo de luz


Phong a una imagen facial 3D obtenida de
una cámara de profundidad
Nombres de autores de la primera institución
Jose Manuel Oviedo Corella, ITCR
joveidocorella@[Link]
Rogelio González Quirós, ITCR
rojo@[Link]

Resumen— Este documento trata sobre la implementación del algoritmo de iluminación Phong sobre un rostro
para similar la realidad, se utiliza una cámara Intel Realsense D435 como cámara de profundidad y RGB para
la toma y manipulación de una nube de puntos. Se utiliza el Ray Tracing para simular la acción de los rayos de
luz y la manipulación de la imagen 3D para generar una imagen 2D. Se trabajan diferentes algoritmos de Phong
que es un algoritmo de iluminación muy comúnmente utilizado. Esto permite analizar su efectividad y tener una
base académica de otros modelos que pueden ser probados bajo el mismo ambiente de pruebas.

Palabrasclave: Intel Realsense; 3D; Ray Tracing.


Abstract— This document is about the implementation of the lighting algorithm. Phong on a face to resemble
reality, an Intel Realsense D435 camera is used as a depth camera and RGB for taking and handling a point
cloud. Ray tracing is used to simulate the action of light rays and the manipulation of the 3D image to generate
a 2D model. We are working with different algorithms but with a focus of Phong algorithm that is a typical
implementation for local illumination. We try to probe the effectiveness of Phong and also review the different
approach that we can use in future works.

Keywords: Intel Realsense; 3D; Tray Racing.

I. INTRODUCCIÓN
Cada día es más frecuente encontrar la utilización de imágenes obtenidas de cámaras de profundidad para
su uso a nivel de películas o de anuncios en general, la presencia de cámaras 3D o de profundidad cada vez
más accesibles y de mejor tecnología plantea un reto a nivel de diseño gráfico ya que la utilización de
diferentes modelos de luz puede variar fuertemente en el resultado final de la imagen y su naturalidad.
La refracción implementada exitosamente se basa en la utilización correcta de Ray Tracing [1] pero esto
representa a su vez un problema ya que al objeto 3D obtenido se le debe aplicar un modelo de luz debido a
que para poder llegar a ver una escena o un objeto en cualquier ambiente es debido a que este tiene presente
una o varias fuentes de luz, dentro de los cuales los más frecuentes son difusa, ambiental, especular y Phong.
La nueva tecnología le ha dado un nuevo auge a lo que sería el Ray Tracing, ya que esto era lo que
limitaba anteriormente la implementación del mismo, ya que era operado a nivel de CPU pero desde la
aparición del GPU y la nueva línea RTX de Nvidia junto a Cuda para su desarrollo ha permitido que el
proceso que anteriormente duraba horas se pueda realizar en cuestión de minutos y en algunos casos hasta
en tiempo real. [13], [17], [22], [25]. Por otro lado, este auge ha permitido el aumento de generación de
películas animadas, ya que lo que anteriormente tomaba un costo muy elevado por el tiempo de producción,
animación y post producción ahora se puede hacer en un tiempo cada vez más corto, reduciendo los costos
de lo mismo y generando cada vez una imagen más realista. [18]
Para Ray Tracing se tienen varios algoritmos para el cálculo del principio de iluminación, uno de ellos
es el clásico que fue propuesto por el señor Whitted y es conocido como Whitted Ray Tracing [2] y se basa
en el cálculo del rayo de luz desde la perspectiva de la cámara y captura la luz principal, la luz reflectada y
refractada, por lo que esto lo convierte en uno de los más frecuentes. El Ray Tracing es un algoritmo que

249
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

puede correr tanto a nivel de CPU como GPU, con la nueva generación de GPU y un algoritmo apropiado
se puede obtener el mejor resultado de tiempo. [13], [16], [22] Sumado a eso existen opciones para las
personas que no cuentan con estas nuevas generaciones que consiste en la combinación de GPU + CPU, lo
cual genera un renderizado en menos tiempo que haciendo el proceso solo con GPU o CPU
independientemente. [19], [21], [24],
[4]Otro de los modelos de Ray Tracing es el Montecarlo que fue propuesto por Kajiya en 1986 [3], el
Montecarlo puede utilizar no solo un rayo como en el caso del tradicional si no que puede utilizar varios
rayos de luz y además permite generar un rayo en cada intersección con un objeto para registrar mejor el
proceso, pero esto tiene una contra que la imagen final puede contar con muchas iluminaciones y queda llena
con demasiado ruido, pero al utilizar el Monte Carlo sobre un GPU se puede mejorar la calidad sin sacrificar
tanto el tiempo de renderizado. [10][12]
[5]Por otro lado, se tiene el Photon Mapping que es un modelo que se utiliza para dar iluminación global,
dentro de lo que se plantea es que genere una mejor calidad de imagen que la de Monte Carlo. Se utiliza
varias fuentes de luz y una fuente principal, pero durante su proceso se elimina un poco de mala iluminación
por lo que mejora la calidad de la escena, por otro lado, para bajar el tiempo de procesamiento de la escena
se puede utilizar un algoritmo distribuido. [11] [14]
Existen diferentes algoritmos como se logra apreciar con las opciones anteriores, pero cada uno de ellos
tienen su fuerte y su debilidad, existen artículos comparativos entre ellos que dejan apreciar el
comportamiento de estos a diferentes ambientes y luces, lo que nos permite reflexionar de una forma cual en
un futuro se podría replicar este tipo de pruebas con diferentes materiales, buscando una iluminación natural.
[15] Incluso existen algoritmos que permiten mejorar los tiempos de manipulación de objetos 3D en procesos
de renderizado para sacar el mayor provecho del hardware disponible. [20]
No se puede iniciar un trabajo sobre iluminación sin revisar el estado del arte sobre iluminación global,
en el mismo se pueden observar las fórmulas básicas para renderizado donde se estiman por ejemplo las
reflexiones, se incluye definiciones sobre la afectación de la luz sobre el material y como esta cambia las
reflexiones y como estas deben ser calculadas. El factor de reflectancia de un objeto en 4D es muy importante
para que podamos modelar cualquier tipo de objeto. Otros factores importantes de conceptualizar son
visibilidad de los objetos dentro de la escena y el factor de atenuación. Algunos enfoques más comúnmente
utilizados en los últimos años serían: Monte Carlo, Ray Tracing, Photon mapping, Radiosidad instantánea,
Iluminación Global basado en muchas luces, Iluminación global basada en puntos, métodos ordinarios
discretos y transferencia de radiancia pre-calculado (PRT). El artículo cierra con una excelente comparación
entre los modelos donde se analiza velocidad, calidad, dinámica, escalabilidad, implementación, uso de GPU
y tipo de transporte. Desde allí se puede determinar que algoritmo nos conviene más utilizar según la
necesidad de la escena. Si es velocidad, si es calidad podremos encontrar una opción sin dejar de lado que la
gran mayoría utilizan GPU condicionando esto a que se debe tener una tarjeta con ese soporte a nivel gráfico
[26].
II. TRABAJOS RELACIONADOS

[6]Como habla el artículo “Lighting Design Using Ray Tracing” la utilización de la luz tiene que basarse
en el tipo de escena que se quiere, ya que hay diferentes de modelos que se pueden aplicar, pero hay unos
más eficientes que otros para una escena en específico.
[7] El modelo de representación de imágenes utilizado en el documento “Rendering realistic scenes based
on ray tracing” trata con varios tipos de iluminación sobre diferentes modelos, pero estos no representan la
utilización de una imagen de piel o recreando la piel.
Otros tipos de investigaciones como el trabajo “Reflectance and Natural Illumination from Single-
Material Specular Objects Using Deep Learning” trabajan sobre la línea de tratar de imitar la iluminación
natural para recrear lo mejor posible la realidad, pero ellos utilizan materiales reflejantes, pero no trabajan
sobre objetos refractantes.[8]
En el artículo “A lighting model for fast rendering of forest ecosystems” se trabaja con un método de
iluminación para un bosque, que a pesar de ser un tipo de material difícil de trabajar debido a que las hojas
tienen una translucidez específica, el algoritmo que ellos implementan le sale funcional para ese tipo de
materiales, pero no aplica para este. [9]

250
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

III. DESARROLLO
Este trabajo consistió en diferentes pasos, el primer de ellos era la captura de una imagen 3D RBG del
rostro de una persona, esto con la intención de aplicar el modelo de luz sobre la misma, para buscar si este
modelo se asimilara lo mejor posible a una luz natural.
Para este primer paso se requirió utilizar una cámara de profundidad con cámara RGB, para efectos de
ello se utilizó la cámara Intel Realsense D435 y la implementación del sistema Intel Realsense para la captura
y almacenamiento de la imagen 3D. Esta cámara se divide en 3 diferentes sensores, un sensor infrarrojo para
ayudar con la detección de profundidad, 2 sensores de profundidad y una cámara RGB.
El conjunto trabaja similar a un sonar, donde toma el tiempo que le toma a los sensores de profundidad
enviar y recibir una señal, y basado en ese tiempo es como se calcula la distancia de un punto de la nube de
puntos. La generación de la nube de puntos lo realiza el SDK Intel Realsense 2.0, que toma los datos provistos
por los sensores y los muestra en una pantalla interactiva donde se pueden manipular, al mismo tiempo
permite realizar la conexión de este SDK a un proyecto externo para su utilización.

Figura 1. Intel Realsense D435

Figura 2. SDK Intel Realsense 2.0

Este SDK permite la exportación del modelo RGB y nube de puntos a un formato PLY (Polygon File
Format) que el mismo ya es manipulable por un visor 3D o por un software de diseño. En este caso se utilizó
un código visto en clases de Introducción a los Gráficos por Computadora donde se aplicó este PLY como
skin a un objeto para de esta forma aplicar el algoritmo de modelo de luz.
Para este proceso se tiene que comprender la funcionalidad de un manejo de imagen 3D ya que esto
permitiría comprender mejor la funcionalidad del sistema, lo primero que se debe de considerar al pensar en
un objeto 3D representado a nivel de computadoras es que este modelo 3D al final va a ser mostrado como
una imagen 2D.
Como modelo básico de cámara se tiene la que se conoce como “Pinhole Camera” que es considerada
como la base para comprender o visualizar una imagen 3D en un plano 2D, ya que permite ver una imagen
tridimensional reflejada como una imagen plana sin la necesidad de lentes ni espejos, la funcionalidad de la
cámara es tener un objeto sea una caja o cilindro y hacer un agujero pequeño circular de uno de los costados
y al opuesto hacer un agujero rectangular, en el agujero rectangular se coloca un papel film o similar. Este
ejercicio permite comprender la abstracción de objetos 3D. La figura 3 nos muestra un ejemplo de un
“Pinhole camera”, la imagen reflectada será idéntica, pero se va a encontrar invertida a la imagen real, la
imagen reflejada en el film de la cámara lo que está tomando es la refracción de la luz sobre el objeto y eso
es convertido en una imagen plana de un objeto tridimensional.

251
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 3. Ejemplo de Pinhole Camera

El modelo Ray Tracing se basa en el cálculo de la intersección de la luz con un objeto 3D, donde esta
intersección puede generar sobras, reflexiones y refracción de la luz. Para el cálculo del color de la imagen
original se toma el modelo 3D generado por la cámara, en este caso el código que se utilizó para cargar la
imagen recibe un elemento BMP, que lee pixel por pixel utilizando el siguiente código:
vec3 CTexture::GetColorNearest(float s, float t)
{
vec3 Color = vec3(1.0f);
if(Data != NULL)
{
s -= (int)s;
t -= (int)t;
if(s < 0.0f) s += 1.0f;
if(t < 0.0f) t += 1.0f;
int x = (int)(s * Width), y = (int)(t *
Height);
BYTE *data = (Width * y + x) * 3 + Data;
Color.r = OD255 * data[0];
Color.g = OD255 * data[1];
Color.b = OD255 * data[2];
}
return Color;}
La función anterior busca el color de un pixel, calcula su RGB en este caso lo calcula en base de RGB y
regresa este elemento para que sea insertado en la posición del elemento. Dado que el sistema hace un
montaje pixel por pixel. Una vez montado el sistema hace el cálculo de la reflexión y sombras basado en el
modelo de iluminación Phong.
Este modelo de iluminación y reflexión está compuesto por 3 elementos, el primero es la iluminación
ambiental, que seria la base de donde esta el objeto, luego se tiene la imagen con su iluminación difusa que
agrega el sombreado a el objeto y por ultimo la especular que es la reflexión de la luz en el objeto basándose
en el tipo de material como se puede observar en la Fig 4, esto nos genera al final la imagen con la reflexión
Phong.

Figura 4. Modelo de Reflexión Phong


El calculo del color del pixel es determinado por la intersección de el rayo que proviene desde la
cámara o en su defecto el ojo humano y los objetos presentes en la imagen, este tipo de calculo se utiliza
una formula para determinar el color específico para ese pixel, para eso se utiliza la siguiente función:
(𝑋𝑒 , 𝑌𝑒 , 𝑍𝑒 ) + 𝑡[𝑋𝐷 , 𝑌𝐷 , 𝑍𝐷 ]
La imagen 3D capturada es una nube de puntos que tiene la característica que se ve las fracciones de la
cara junto a todos los objetos que se encuentren detrás de la persona que se encuentra siendo escaneada, en
la Fig 5 y Fig 6 vemos el resultado de uno de esos objetos 3D.

252
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 5. Vista Frontal de la nube de puntos.

Figura 6. Vista Lateral de la imagen 3D.

Una vez obtenida esta imagen vista en la Fig 5 y Fig 6, se utilizo un algoritmo Ray Tracing para manipular
la imagen, para pruebas de extrapolación se probó primero en el software de Intel Realsense SDK para notar
si la imagen en si lograba verse correctamente para aplicar el proceso planeado. Se muestra en Fig 7 y Fig 8
la prueba realizada.

Figura 7. Vista lateral 3D + RGB

Figura 8. Vista Frontal 3D + RGB


Una vez logrado aplicar eso a un objeto se aplica en una lectura de modelo PLY en el Ray Tracing y se aplica el skin de la imagen
RGB y por último se renderiza en una imagen plana 2D. Un ejemplo del resultado final es el que se ve en Figura 9. Dentro del proceso
se tiene

253
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 9. Imagen 3D renderizada

IV. CONCLUSIONES
Este documento presenta la implementación de una cámara de profundidad y un algoritmo de Ray
Tracing para la lectura de una imagen 3D y conversión a una escena 2D. Utilizando un modelo de
iluminación Phong y desde 1 a 5 diferentes fuentes de luz.
Se tuvo que realizar una investigación sobre el funcionamiento de Ray Tracing y del funcionamiento de
una cámara de profundidad ya que a pesar de ser tecnologías con varios años en el mercado no existía ningún
antecedente de utilización de las 2 al mismo tiempo.
Para un trabajo futuro se recomienda utilizar diferentes algoritmos de iluminación para poder comparar
si existe alguno que permita recrear de mejor forma la iluminación natural en un rostro. Además, se deberá
utilizar un equipo con una GPU ya que el procesamiento de Ray Tracing toma varios minutos para renderizar
una imagen basados únicamente en el CPU de la unidad donde se encuentra haciendo el proceso.
Sumado a la utilización de un GPU se es recomendado contar con varias cámaras para poder captar de
mejor forma la imagen 3D, ya que con una sola toma de un único ángulo y los costados le es difícil captar,
lo recomendado es al menos 3 cámaras, una frontal y las otras dos a derecha e izquierda.
V. REFERENCIAS BIBLIOGRÁFICAS

[1] A. Glassner. An Introduction to Ray Tracing. Academic Press, Cambridge Massachussets,


[2] WHITTED T. An Improved Illumination Model tor Shaded Display. Commun. ACM 23, 6 (June), 1980, 343-349.
[3] J. Škoda and M. Motyčka, "Lighting Design Using Ray Tracing," 2018 VII. Lighting Conference of the Visegrad Countries
(Lumen V4), Trebic, 2018, pp. 1-5.
[4] C. R. Salama, "GPU-Based Monte-Carlo Volume Raycasting," 15th Pacific Conference on Computer Graphics and Applications
(PG'07), Maui, HI, 2007, pp. 411-414.
[5] JENSEN H. W. Realistic Image Synthesis Using Photon Mapping. A. K. Peters, Ltd, Natick, MA, USA. 2001.
[6] KAJIYA, J T., The rendering equation. In Proceedings of the 13th Annual Conference on Computer Graphics and Interactive
Techniques, ACM, New York, NY, USA, SIGGRAPH '86, 143-150.
[7] He Rui, Qian Wen hua and Yang Xiao yu, "Rendering realistic scenes based on ray tracing," 2014 IEEE Workshop on
Electronics, Computer and Applications, Ottawa, ON, 2014, pp. 310-313.
[8] S. Georgoulis et al., "Reflectance and Natural Illumination from Single-Material Specular Objects Using Deep Learning," in
IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 40, no. 8, pp. 1932-1947, 1 Aug. 2018.
[9] R. Geist and J. Steele, "A lighting model for fast rendering of forest ecosystems," 2008 IEEE Symposium on Interactive Ray
Tracing, Los Angeles, CA, 2008, pp. 99-106.
[10] M. Robart, S. Hill and E. Tanguy, "Global Illumination for Advanced Computer Graphics," 2008 Digest of Technical Papers -
International Conference on Consumer Electronics, Las Vegas, NV, 2008, pp. 1-2.
[11] Laszlo Szirmay-Kalos; Laszlo Szecsi; Mateu Sbert, "GPU-Based Techniques for Global Illumination Effects," in GPU-Based
Techniques for Global Illumination Effects , , Morgan & Claypool, 2008, pp.
[12] NVIDIA. Nvidia Cuda. Best Practices Guide. 2011.
[13] D. C. Barboza and E. W. G. Clua, "GPU-Based Data Structure for a Parallel Ray Tracing Illumination Algorithm," 2011
Brazilian Symposium on Games and Digital Entertainment, Salvador, 2011, pp. 11-16.
[14] X. Xu, L. Wang, Y. Xu, C. Yang and X. Meng, "Distributed Global Illumination Method Based on Photon Mapping," 2016
International Conference on Identification, Information and Knowledge in the Internet of Things (IIKI), Beijing, 2016, pp. 22-
25.
[15] G. B. Meneghel and M. L. Netto, "A Comparison of Global Illumination Methods Using Perceptual Quality Metrics," 2015 28th
SIBGRAPI Conference on Graphics, Patterns and Images, Salvador, 2015, pp. 33-40.

254
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[16] Y. Qin, J. Lin and X. Huang, "Massively parallel ray tracing algorithm using GPU," 2015 Science and Information Conference
(SAI), London, 2015, pp. 699-703.
[17] B. Wang, X. Meng, Y. Xu and X. Song, "Fast Point Based Global Illumination," 2011 12th International Conference on
Computer-Aided Design and Computer Graphics, Jinan, 2011, pp. 93-98.
[18] J. Kronander, J. Dahlin, D. Jönsson, M. Kok, T. B. Schön and J. Unger, "Real-time video based lighting using GPU raytracing,"
2014 22nd European Signal Processing Conference (EUSIPCO), Lisbon, 2014, pp. 1627-1631.
[19] V. G. Menon and K. Raju, "Performance analysis of ray tracing based rendering using OpenCL," 2017 Innovations in Power
and Advanced Computing Technologies (i-PACT), Vellore, 2017, pp. 1-5.
[20] C. Shihao, H. Guiqing and H. Chongyang, "Rapid Texture-based Volume Rendering," 2009 International Conference on
Environmental Science and Information Application Technology, Wuhan, 2009, pp. 575-578.
[21] M. Chochlík, "Scalable multi-GPU cloud raytracing with OpenGL," The 10th International Conference on Digital Technologies
2014, Zilina, 2014, pp. 87-95.
[22] S. Guntury and P. J. Narayanan, "Raytracing Dynamic Scenes on the GPU Using Grids," in IEEE Transactions on Visualization
and Computer Graphics, vol. 18, no. 1, pp. 5-16, Jan. 2012.
[23] A. Segovia, X. Li and Guang Gao, "Iterative layer-based raytracing on CUDA," 2009 IEEE 28th International Performance
Computing and Communications Conference, Scottsdale, AZ, 2009, pp. 248-255.
[24] P. Andrade, T. Sabino and E. Clua, "Towards a heuristic based real time hybrid rendering a strategy to improve real time
rendering quality using heuristics and ray tracing," 2014 International Conference on Computer Vision Theory and Applications
(VISAPP), Lisbon, 2014, pp. 12-21.
[25] D. V. d. Macedo and M. A. F. Rodrigues, "Realistic Rendering in 3D Walkthroughs with High Quality Fast Reflections," 2015
14th Brazilian Symposium on Computer Games and Digital Entertainment (SBGames), Piaui, 2015, pp. 109-117.
[26] T. Ritschel et al, "The state of the art in interactive global illumination," in Computer Graphics Forum, 2012

255
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Pósters

256
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Análisis del rendimiento y potencial del framework


Flutter para el desarrollo de aplicaciones móviles mul-
tiplataforma.
Analysis of the performance and potential of the Flut-
ter framework for the development of multi-platform
mobile applications.

Jafeth Vásquez Herrera,


Steven Peraza Porras
Escuela de Computación, Instituto Tecnológico de Costa Rica
San Carlos, Costa Rica
jvsquez19@[Link]
sjpp8448@[Link]
Resumen — En el siguiente trabajo, se explorarán las diferentes características de Flutter y su potencial
para crear nuevas soluciones móviles tanto en Android como en IOS. Se identificarán las ventajas y des-
ventajas del framework. Así como los escenarios en los que Flutter se adapta mejor.

Flutter; Aplicaciones Móviles; React Native; Rendimiento;


Abstract — In the following work, the different features of Flutter and its potential to create new mobile
solutions in both Android and IOS will be explored. It will identify the advantages and disadvantages of
the framework. As well as the scenarios in which Flutter is better suited.

Flutter; Mobile Applications; React Native; Performance;

I. INTRODUCCION
Flutter es un nuevo framework para el desarrollo de aplicaciones móviles multiplataforma lanza-
do por Google en su versión Alpha en mayo de 2017.

El objetivo de los creadores de Fluter como lo menciona uno de sus Co-fundadores Eric Seidel
[1] en la conferencia Strange Loops es crear la mejor manera de desarrollar para mobiles. Es por
esto que han buscado mejorar la fluidez del desarrollo, la flexibilidad del framework y la confia-
bilidad en las aplicaciones.

En los siguientes párrafos se profundizará mejor las diferentes características de Flutter y su po-
tencial para crear nuevas soluciones móviles tanto en Android como en IOS. Se tratarán los as-
pectos diferenciadores con respecto a otros frameworks en cuanto a su lenguaje y arquitectura.

257
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

También se analizará desde una perspectiva comparativa, las ventajas del framework con respec-
to a otros.

III. ¿QUE ES FLUTTER?


Flutter es un SDK para el desarrollo de aplicaciones móviles multiplataforma. Permite crear apli-
caciones nativas tanto para IOS como para Android, diferentes del resto. Ha adquirido mucha
popularidad desde su lanzamiento, y esto ha despertado el interés de muchas personas por cono-
cer qué es lo que lo hace diferente del resto de frameworks [2] .
Es una solución para crear aplicaciones multiplataforma con una interfaz gráfica visualmente
agradables y fluidas [3]. Al igual que ReactNative, Flutter está basado en una vista reactiva, sin
embargo ofrece mejor rendimiento ya que Flutter está hecho en un lenguaje compilado como lo
es Dart. Esto significa que el código se compila en códigos binarios según la plataforma con la
cual es compatible. Esto le permite a Flutter comunicarse directamente con la plataforma sin ne-
cesidad de ningún puente. Lo que mejora también el tiempo que tarda en levantarse la aplicación.
VII. COMPARATIVA DE FLUTTER CON RESPECTO A OTRAS TECNOLOGÍAS
Como Flutter es un framework relativamente nuevo, aún tiene mucho camino que recorrer, as-
pectos en los que mejorar y una comunidad de desarrolladores que fortalecer. Sin embargo se
nota el gran esfuerzo que ha hecho el equipo de desarrollo por hacer de Flutter una herramienta
lo más completa posible.

React Native salió hace más tiempo por lo que ha ganado una comunidad muy sólida de desarro-
lladores activos. Además ha madurado mucho desde que fue lanzada por lo que ha logrado gran
estabilidad y confiabilidad. Además cuenta con muchos casos de uso exitosos.

A. Rendimiento
En este sentido parece que no hay duda por parte de los autores de que Flutter ofrece mejor ren-
dimiento frente a React Native. “Comparando React Native de Facebook vs Flutter de Google en
función del rendimiento la aplicación, es Flutter el que se queda con la corona sobre su competi-
dor. Flutter tiene la ventaja de Dart y la de que no existe un puente de JavaScript para iniciar las
interacciones con los componentes nativos del dispositivo, por lo que la velocidad de desarrollo
y el tiempo de ejecución se aceleran drásticamente.” [6]. Como explican los de Angular Minds,
él no depender de un puente es la principal razón por la que Flutter tiene mejor rendimiento.
“React Native solo utiliza un poco más de memoria que la aplicación nativa, mientras que el uso
de memoria de Flutter es casi un 50% más alto que la aplicación nativa. Por otro lado, la aplica-
ción Flutter estuvo mucho más cerca de igualar el poco uso de la CPU de aplicaciones nativas,
mientras que la aplicación React Native tuvo problemas para mantenerse por debajo del 30% de
utilización de la CPU ” [5].
Como menciona Sullivan en base a sus experimentos las aplicaciones Flutter utilizan mucha más
memoria, a cambio de ofrecer un uso mucho más optimizado de la CPU. Recordemos que Flutter
se encarga él mismo del renderizado y el manejo de los eventos, lo que tiene un efecto negativo
en el uso de la memoria.

B. Interfaces de Usuario

258
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

En cuanto a las interfaces de usuario ReactNative ofrece diversos componentes, tanto para ambos
dispositivos, como componentes específicos para Android o para IOS. React native, no tiene
componentes propios, sino que necesita librerías de terceros [6].

Por otra parte Flutter tiene acceso directo a la pantalla lo que permite animaciones perfectas sin
ningún tipo de lag, tiene sus propios Widgets y además le permite al desarrollador modificarlos o
crear sus propios Widgets. Por lo que ofrece mucha más versatilidad y personalización.

En este sentido, dependerá del objetivo que se quiera alcanzar en términos de interfaz. Si lo que
se quiere es crear una interfaz que se vea cien por ciento nativo, es probable que sea mejor React
Native ya que no hay una manera fácil de poner fragmentos de código o vistas nativas dentro de
los Widgets de Flutter, sin embargo si lo que se busca es crear interfaces personalizadas, puede
que en React Native se torne muy complejo. Es ahí donde Flutter tiene la ventaja, en la persona-
lización.

C. Testing
En cuanto al testing de las aplicaciones a nivel de pruebas unitarias, tenemos todas las librerías
disponibles para Javascript, sin embargo en cuanto a pruebas automatizadas de interfaz de usua-
rio, no es tan fácil. Existen librerías de terceros pero no es tan claro el camino a seguir en este
aspecto [7].

En cuanto a Fluter, Dart tiene un framework para pruebas unitarias excelente y Flutter ofrece una
buena opción para probar Widgets y debuguear rutinas sin cabeza [7], Fluter permite también
pruebas de integración, y pruebas “Golden Image”.

D. Otros aspectos
En cuanto a la documentación Fluter ofrece una muy buena documentación, mientras que React
Native es un poco débil en este aspecto.

Flutter también ofrece un repositorio centralizado de paquetes, Pub es un medio oficial en el cual
se pueden encontrar todos los paquetes, además estos son auto analizados al subirse. Muestra ad-
vertencias en caso de que estén rotos o se den ese tipo de situaciones.

E. Aspectos negativos de Fluter


En Fluter es muy fácil hacer un desastre, por lo que requiere de muy buenas prácticas de parte
del desarrollador. Razón por la cual es importante conocer sobre patrones de diseño y librerías
como BLoC, Redux, Scoped_Model.

Por otra parte, a pesar de las ventajas que se analizaron anteriormente sobre Dart como lenguaje,
aún no tiene tanta popularidad como sí lo tiene Javascript. Que es un lenguaje con una comuni-
dad de desarrolladores activos inmensamente grande.

259
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Otra desventaja de Flutter es que aún no hay muchas librerías en Pub, aunque el repertorio au-
menta rápidamente, aún es limitado el número de librerías que se pueden encontrar en compara-
ción con otros frameworks.

VIII. CONCLUSIONES
En conclusión es importante valorar el hecho de que Flutter ofrece un nuevo concepto de aplica-
ciones móviles multiplataforma diferente que permite mucho mejor rendimiento que otras pro-
puestas como React Native. Además Flutter tiene todo el respaldo de un equipo de desarrollo de
Google detrás, por lo que ha ido madurando bastante rápido. Sin embargo aún sigue siendo una
propuesta que apenas está surgiendo por lo que tiene muchos retos por delante, por ejemplo: no
se puede competir con la comunidad de Javascript y aún tiene muy pocas librerías disponibles.

Otros frameworks, como React Native tienen muchos más ejemplos de éxito, que a nivel empre-
sarial le dan más fiabilidad. Sin embargo Flutter ha ido creciendo a pasos agigantados y los po-
cos casos de éxito que tiene han dejado fascinadas a las empresas. Un ejemplo es la aplicación
Reflectly la cual asegura que se obtuvieron mucho mejores resultados al moverse de React Nati-
ve a Flutter [4].
Algunas grandes aplicaciones como Alibaba o Hamilton, han optado por usar Flutter y han teni-
do éxito. Lo que son claros ejemplos de que Flutter es un framework que está preparado para
crear grandes aplicaciones.

Para los desarrolladores, sin duda es una tecnología que vale la pena aprender, por todo el poten-
cial que ofrece a futuro. Ya que si Google continúa trabajando en él como lo ha hecho hasta aho-
ra, solo será cuestión de tiempo para que se convierta en el líder en el desarrollo de aplicaciones
multiplataforma.

IX. REFERENCIAS BIBLIOGRAFICAS

[1] E. Seidel, ""Flutter: How we're building a UI framework for tomorrow at Google" by Eric Seidel", YouTube, 2017. [Online]. Availa-
ble: [Link]
[2] W. Leler, "What’s Revolutionary about Flutter - [Link]", Medium, 2018. [Online]. Available: [Link]
whats-revolutionary-about-flutter-946915b09514.

[3] P. Szklarska, "Flutter — 5 reasons why you may love it - [Link]", Medium, 2018. [Online]. Available: [Link]
com/flutter-5-reasons-why-you-may-love-it-55021fdbf1aa.
[4] D. Vestergaard, "Reflectly — From React Native to Flutter - Reflectly Engineering - Medium", Medium, 2018. [Online]. Available:
[Link]
[5] A. Sullivan, "Examining performance differences between Native, Flutter, and React Native mobile development.", [Link]-
[Link], 2018. [Online]. Available: [Link]
react-native-mobile-development.

[6] "Comparison Between Flutter Vs React Native for mobile app development 2019 | Angular Minds", Angular Minds, 2018. [Online].
Available: [Link]

[7] "React Native, Flutter, Xamarin: a comparison", The Labs | Novoda, 2018. [Online]. Available: [Link]
react-native-flutter-xamarin-a-comparison/.

260
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Clasificación de intencionalidad de las


aplicaciones en dispositivos Cisco Meraki
utilizando Machine Learning
José Pablo Brenes Alfaro [+]

Efrén Jiménez Delgado [-]

Instituto Tecnológico de Costa Rica

josepablo1997@[Link] [+]

ejimenezdelgado@[Link] [-]

Resumen — Meraki es un dispositivo capaz de obtener datos de red (subida, bajada, flujos, cantidad de clientes,
puerto, tiempo activo) con los cuales podemos interactuar con el aprendizaje automático [5]. Por otra parte, se
necesita ver el comportamiento que tiene la red en el Campus Tecnológico local San Carlos, esta se puede obtener
usando el algoritmo de agrupación k means [1] y dado estos grupos clasificar los datos entrantes usando el
algoritmo de bosques aleatorios [3] para lo cual ya se podrá dar prioridad a ciertos grupos con el uso del internet
para proyectos futuros con la red de la institución.

Palabras clave; Meraki; Machine Learning; Cisco; bosques aleatorios; k means; holdout

Abstract—Meraki is a device capable of obtaining network data (upload, download, flows, number of clients,
port, active time) with which we can interact with machine learning [5]. On the other hand, it is necessary to see
the behavior of the network in the local San Carlos Technology Campus, this can be obtained using the k means
[1] grouping algorithm and given these groups to classify the incoming data using the random forest [3]
algorithm for which Priority may be given to certain groups with the use of the internet for future projects with
the network of the institution.

Keywords; Meraki; Machine Learning; Cisco; random forests; k means; holdout

I. INTRODUCCIÓN
El Campus Tecnológico local San Carlos es una institución con gran provecho en la zona de San
Carlos, Alajuela, Costa Rica. Debido a la gran diversidad de carreras que esta provee, es que poco a poco
la población estudiantil va creciendo y esto requiere una mejor administración de la red de internet que es
clave para los estudiantes a la hora de realizar sus tareas, estudiar o hacer investigaciones. Debido a la gran
demanda que proporciona el campus con la red, se requiere conocer el comportamiento de los datos creando
así grupos por medio del algoritmo de “k means” [1] para posteriormente clasificar los nuevos datos de red
entrantes con el modelo de “bosques aleatorios” [3]. Esto con el fin de poder brindar internet de una manera
óptima a los usuarios de red dado los grupos creados.
II. METODOLOGÍA
Este trabajo propone una herramienta basada en dos modelos, la agrupación de los datos se realiza
con el algoritmo de k means y el de clasificación con bosques aleatorios. La validación por parte de la
clasificación se realiza con un método llamado holdout [4] el cual separa los datos en entrenamiento y
prueba, esto con el fin de tener una mayor adaptabilidad del modelo a cualquier tipo de datos entrante por
parte del meraki [6]. Por otra parte, se utiliza el método de k means con el fin de encontrar relaciones entre
las variables y descubrir el comportamiento de estos datos agrupándolos en cuatro grupos.
Datos
Para el entendimiento y valoración del modelo se utilizaron los datos brindados por un api del
dispositivo cisco meraki, de estos se obtienen: identificador único por aplicación registrada, nombre de la
aplicación que se usó, link que se usó para acceder a la aplicación, protocolo que se usó para acceder a la
aplicación, puerto de red usado, datos de red recibidos, datos de red enviados, socket de conexión, tiempo

261
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

activo de la aplicación, número de clientes conectados a la aplicación en ese momento y fecha de lectura.
Estos datos fueron recolectados en el mes de abril del 2019, específicamente del 04 al 10, con una cantidad
de muestras de 456.967 lecturas, estas se obtienen justo cuando algún dispositivo se conecta a la red.

Figura 1. Visualización de las aplicaciones por la cantidad de clientes

Arquitectura de los modelos

Para todos los modelos se utilizó la librería de aprendizaje automático en Python [5] llamada scikit-
learn de la cual proporciona una gran cantidad de algoritmos y métodos para dar solución a problemas
relacionados con el aprendizaje automático [6] como es el caso de los algoritmos ya mencionados.
Pre procesado

Para crear los grupos en las aplicaciones es que se crea un data frame [7] el cual solo está
compuesto por datos numéricos de los cuales se normalizan, estos son: el puerto, red recibida, red enviada,
flujos, tiempo activo y número de clientes. Esto es debido a que el método k-means agrupa los datos por
sus distancias y por el número de centroides que se le brinden, para el cual se escogieron cuatro grupos con
el fin de ver el comportamiento de los datos y así agrupar los datos que tengan relación entre sí.

Figura 2. Visualización de los 4 grupos de datos generados por el método de k-means

262
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Entrenamiento y Post procesado

Para el entrenamiento como la validación se utiliza la metodología de “holdout” o separación de


datos en un 80% para el entrenamiento del modelo y 20% para la evaluación del mismo, antes de separar
los datos este los revuelve de manera aleatoria, esto con el fin de simular nuevos datos y que prediga en
qué grupo debe de estar la lectura de red obtenida por el meraki. Además, evitar el sobreajuste(overfitting)
de los datos en el modelo el cual se le da una profundidad de capas de dos niveles y un número de
estimadores de 200 como máximo, esto con fin de hacer que el algoritmo sea sencillo, rápido y potente a la
hora de realizar los cálculos para obtener los resultados de la clasificación.

Figura 3. Visualización del método de “holdout”

III. Resultados

El modelo de bosques aleatorios brinda una exactitud del 94%, la evaluación se realiza por medio
de la separación de los datos en entrenamiento y prueba, con el entrenamiento se entrena el modelo con el
fin de clasificar los datos entrantes, los de prueba son los datos que van a servir para comparar los datos
clasificados por el modelo y los datos actuales que son los que ya tienen el resultado real. Como se aprecia
en la figura 4, la mayor parte de la clasificación se centran en el grupo cero, este cubre la mayor parte de la
agrupación como se observa en la figura 2 en color verde. Además, como se aprecia en la matriz de
confusión, el grupo clasificado por el modelo como uno no tiene ninguna clasificación ya que este lo
considera como cero, el problema ocurre ya que los grupos cero, uno y tres están muy relacionados o tienen
características muy similares por lo que falla el modelo en su clasificación, gran parte de la exactitud que
logra el modelo es que cubre la mayor parte de la clasificación en el grupo cero con más de 80 mil datos.

Figura 4. Mapa de calor de la matriz de confusión

263
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IV. Implementación
Todos los experimentos se basaron en Python 3 usando las librerías de scikit-learn para los modelos de
clasificación y agrupación, para los gráficos se utilizaron matplotlib y seaborn, pandas y numpy para toda
lo logística de los datos y matemática. Además, todo fue ejecutado en una computadora portátil con un
procesador CORE I7 de octava generación, 12 GB de RAM y una tarjeta gráfica de GeForce GTX 1050 TI
con 4 GB.
V. Discusión
El algoritmo de bosques aleatorios muestra según los resultados de exactitud de clasificación un
promedio del 94%, esto es debido a que gran parte del total de los datos se centran en el grupo cero, por lo
que carece de exactitud en el grupo uno por el que ningún dato fue clasificado como tal, los grupos cero,
uno y tres como se aprecia en la figura 2 son muy semejantes entre sí por lo que al modelo carece de
exactitud a la hora de clasificar los datos entrantes entre estos grupos.
Por otra parte, si se quiere mejorar el modelo se necesitan muchos más datos ya que gran parte fueron
recolectados en apenas seis días, el modelo tiende al sobreajuste con el grupo cero, por lo que se necesitan
ver la variedad de estos datos entrantes ya que la mayor parte de las lecturas son muy similares y esto
dificulta a los modelos en agrupar para luego clasificar los datos de red.

Figura 5. Resumen estadístico de la clasificación

REFERENCIAS BIBLIOGRÁFICAS

[1] Wagstaff, K., Cardie, C., Rogers, S., & Schrödl, S. (2001, June). Constrained k-means
clustering with background knowledge. In Icml (Vol. 1, pp. 577-584).
[2] Santos, O., Kampanakis, P., & Woland, A. (2016). Cisco Next-Generation Security Solutions:
All-in-one Cisco ASA Firepower Services, NGIPS, and AMP. Cisco Press.
[3] Van Essen, B., Macaraeg, C., Gokhale, M., & Prenger, R. (2012, April). Accelerating a
random forest classifier: Multi-core, GP-GPU, or FPGA?. In 2012 IEEE 20th International
Symposium on Field-Programmable Custom Computing Machines (pp. 232-239). IEEE.
[4] Golub, G. H., Heath, M., & Wahba, G. (1979). Generalized cross-validation as a method for
choosing a good ridge parameter. Technometrics, 21(2), 215-223.
[5] Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., ... &
Vanderplas, J. (2011). Scikit-learn: Machine learning in Python. Journal of machine learning
research, 12(Oct), 2825-2830.
[6] VanderPlas, J. (2016). Python data science handbook: essential tools for working with data.
" O'Reilly Media, Inc.".
[7] Klein, G., Phillips, J. K., Rall, E. L., & Peluso, D. A. (2007). A data-frame theory of
sensemaking. In Expertise out of context: Proceedings of the sixth international conference
on naturalistic decision making (pp. 113-155). New York, NY, USA: Lawrence Erlbaum.

264
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Aplicaciones en Arduino para personas con


discapacidad, un apoyo al aprendizaje en
educación secundaria.

Applications in Arduino for people with


disabilities, a support for learning in
secondary education.

Axel Tapia Sánchez


Secretaria de Educación Guerrero, México
Axltpia1@[Link] m

Resumen — A través de los conocimientos que se pueden ir adquiriendo al aprender robótica se logra una ventaja
en los estudios que de manera formal se obtienen en la educación secundaria; relacionar materias como lo son
lengua extranjera, matemáticas, física, son de gran importancia en el desarrollo de este nivel, desarrollar un
dispositivo en forma de chaleco que pueda hacer la vida mas cómoda de las personas que cuentan con alguna
discapacidad, implica habilidades con las que los jóvenes amplían el pensamiento lógico matemático y sus
capacidades en la vida diaria.

Palabras clave; robótica, educación, arduino, dispositivo, sensor, discapacidad.


Abstract — Through the knowledge that can be acquired by learning robotics, an advantage is obtained in the
studies that are formally obtained in secondary education; relation subjects such as foreign language,
mathematics, physics, are of a great importance in the development of this level, develop a device in the form of
a vest that can make life more comfortable for people who have a disability, involves skills with that young
people expand mathematical logical thinking and their abilities in daily life.

Keywords; robotics, education, arduino, device, sensor, disability.

I. INT RODUCCIÓN
La tecnología ha buscado la comodidad de los seres humanos para con los problemas que le presente la
vida diaria, aprender desde edades tempranas y en la educación formal se ha vuelto una necesidad para que
los seres humanos se desarrollen dentro de la sociedad buscando soluciones que ayuden a las personas que
tienen alguna en especial; de esta manera, se considera que, utilizar los conocimientos que se tienen en
robótica pueden auxiliar en la discapacidad, en es te caso la visual y tener dar las oportunidades para
desenvolverse.
Dentro de los programas de la educación en México no se ha implementado la robótica sino en algunos
casos como talleres o clubes pero que no han crecido como debería por el poco tiempo que se le dedica o por
los conocimientos mínimos que se tienen, por lo que, conociendo el lenguaje arduino en unión con sensores

265
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

de proximidad se ha estimado que se pueden implementar en un chaleco que ayude a manera de lazarillo a
personas que tienen una discapacidad visual.

II. EL AUXILIAR VISUAL

El objetivo general que se plantea en esta investigación es desarrollar a través de un dispositivo físico
controlado por sensores y el programa arduino el auxiliar que guíe los pasos de personas con discapacidad
visual, la cual se “se muestra por una disminución total o parcial de la vista. Se debe tener en cuenta el
campo visual (espacio visible con la mirada fija en un punto) y la agudeza visual (capacidad del ojo para
percibir objetos)”[1]. Como objetivos específicos se plantean, seleccionar los sensores ultrasónicos idóneos
para apoyar a las personas con una discapacidad controlados por placas. El segundo es programar sobre
arduino con las posibles respuestas que los sensores estén emitiendo para auxilio de la persona con
discapacidad; el método de investigación que se ha planteado a la altura de ésta es basado en el ensayo –
error y como un estudio de caso con una persona que presente las características mencionadas.
El dispositivo es un chaleco o playera que se lo pone la persona que padezca la d iscapacidad. El material
será seleccionado para que pueda adaptar a diversas situaciones como la lluvia o incluso el calor para que
no les afecte el traerlo puesto. Funcionaría por medio de sensores ultrasónicos que trabajan por medio de
ondas que salen de un lado de él y al momento de encontrarse con algún objeto rebotan y llegan al otro lado
y por medio de cálculos se obtiene la distancia en la que se encuentra el objeto que estarán colocados en la
parte de enfrente, atrás y a los lados. En esta parte es donde la cuestión matemática entra en proceso con
los deterministicos que no dejen que el usuario choque con algo.

Figura 1 .Sensor ultrasónico[2]

La distancia determinada para que el portador sea alertado que hay algo enfrente de ellos se p ondrá por
medio del programa en este caso ARDUINO.
Estas dos cosas (el sensor y la bocina) se combinarán a partir del programa que será compilado en una
placa arduino nano o micro para que cuando la distancia marcada sea alcanzada la bocina emita un
sonido. Que estarán conectados a través de cables y si es necesario una pequeña tabla o tarjeta llamada
protoboard que será utilizada para unir los cables que van desde el arduino hasta los sensores. Así como
una batería recargable y segura que tenga la durabilidad que sea necesaria para alimentar el dispositivo
durante un tiempo determinado.

Figura [Link] nano[3]

266
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

También tendrá incluida una pequeña bocina que por el mismo programa hará que suene cuando la
distancia determinada del sensor sea alcanzada para que de una alerta al portador de que hay algo enfrente
de él. La primera parte que se tiene que hacer de todo el dispositivo es lo que manda a todo como lo son
los sensores y la bocina es el programa en donde se les dice a los sensores que si al mandar las ondas
hay algo por ejemplo a 15 centímetros le mande una s eñal a la placa y si esa medida es el límite haga
sonar a la bocina.

Figura [Link] [4]

III. CONCLUSIONES
Las personas que por algún motivo no pueden ver o tienen una debilidad visual necesitan de apoyos
que se han desarrollado de diferentes formas, desde animales que los guían u otras personas que les van
sirviendo como sus “ojos”. Este proyecto de investigación en su primera etapa que se encuentra como el
diseño, intenta ser una buena alternativa y dar una mejor calidad de vida, evitando accident es que puedan
significar daños físicos a ellas, o que se tenga que pagar grandes cifras de dinero para reparar. Como
estudiantes de educación básica es una buena alternativa contar con los conocimientos necesarios para apoyar
y ser de utilidad en estos aspectos; el uso de lo que se aprende en un plano cartesiano h ace notar la situación
espacial que los invidentes no cuentan de manera física pero que si puede ser de forma sónica para que ellos
se puedan ayudar.
Utilizar lo que se aprende en física y unir todos los componentes que integrarán el chaleco, los
sensores, la bocina, cables y batería brindan la oportunidad de tener una vida auxiliando su discapacidad.
Como estudiante de secundaria se ponen en juego varios de los saberes, como el saber hacer, el saber
conocer y saber ser pues se ponen en juego los valores, y sobre todo el pensamiento lógico matemático, el
cual tiene muchas deficiencias desde que se es joven por parte de los alumnos, entonces como segunda
parte de este proyecto y poner la metodología en juego, se desarrolla el dispositivo a partir de lo que se ha
mezclado en conocimientos.

IV. REFERENCIAS BIBLIOGRÁFICAS


[1] [Link]
[2] Sensor ultrasó[Link] de
[Link]
QjRx6BAgBEAQ&url=https%3A%2F%[Link] [Link]%2Fproduct os%2Fsensor -
ultrasonico%2F&psig=AOvVaw1evseby094bFzat-qkE9fK&ust=1557943023815881
[3] Arduino nano. Obt enido de ht t ps://[Link]/p/improved-version-nano-3-0-atmel-atmega328p-mini-usb-board-for-
arduino -2080795#.XNr7jxRKjIU
[4] Imagen de la bocina. Obt enido de
[Link]
Rx6BAgBEAQ&url=https%3A%2F%[Link]%2Fcatalogo%2Fproyec tos%2Fbuzzer -12v -1-2cm-
qsx%2F&psig=AOvVaw3GN1_Y4GQW Bh4QMvRdnuCU&ust=1557950402407181

267
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

El aprendizaje de una lengua extranjera a


través de un ecosistema digital, mitos y
realidades en la educación básica.

The learning of a foreign language through a


digital ecosystem, myths and realities in basic
education.

Jesús Librado Tapia Valladares


Secretaría de Educación Guerrero, México
trukson1@[Link]

Resumen — La necesidad de acercar el conocimiento a los educandos en la educación básica, considerando el


tiempo que, de manera formal se estipula por los diferentes currículos por los que se ha atravesado en la últimas
décadas así como lo dividido para las diferentes asignaturas han posicionado al docente en una postura en la
que requiera de un elemento didáctico que los estudiantes conozcan dentro de su contexto inmediato, que su uso
les genere curiosidad y facilidad en su empleo; sobre todo cuando la necesidad de aprender una lengua
extranjera en un escenario adverso y con la mínima exposición al lenguaje, complementado con una
nomenclatura que de manera oficial estipula tres módulos de cincuenta minutos por semana, radicaliza tal
aprendizaje, generando en investigación para utilizar las redes sociales como detonantes de este proceso
didáctico. Explorar en el uso este tipo de aplicaciones con fines educativos pueden brindar además de un tiempo
más de exposición la diversificación a la sola presencia del docente o los compañeros, lo que no quita importancia
del cuidado que se necesita en su empleo.

TICs, aplicaciones digitales, teoría fundamentada, educación básica, whatsapp.


Abstract —The need to bring knowledge to learners in basic education, considering the time th at is formally
stipulated by the different curricula that have been traversed in recent decades as well as what has been divided
for the different subjects have positioned the teacher in a position that requires a didactic element that students
know in their immediate context, that their use generates curiosity and ease in their use; especially when the
need to learn a foreign language in an adverse scenario and with minimal exposure to language, complemented
by a nomenclature that officially stipulates three modules of fifty minutes per week, radicalizes such learning,
generating research to use the networks social as triggers of this didactic process. Exploring the use of this type
of applications for educational purposes can also provide more exposure time for diversification to the mere
presence of the teacher or peers, which does not diminish the care needed in their employment.

ICT, digital applications, grouded theory, basic education, whatsapp.

I. INT RODUCCIÓN
Coadyuvar los dos elementos que se han considerado en los últimos planes de estudio como son las
habilidades digitales y el uso de una lengua diferente a la materna puede ser un elemento de favorecedor si
se consideran las características de los estudiantes en lo educación básica, sobre todo en el nivel de

268
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

secundaria. Lo anterior implica conocer las características de los educandos y sus contextos inmediatos y a
partir de la pregunta formulada como delimitante en la investigación realizada con alumnos de p rimer grado
de educación secundaria en el municipio de Taxco de Alarcón, Guerrero; ¿qué características debe contener
una didáctica basada en la red social WhatsApp para el aprendizaje esperado de los sonidos fricativos del
inglés como segunda lengua de los estudiantes de secundaria que está marcado en el programa nacional de
inglés en educación básica?, poder reconocer los alcances que se pueden lograr a partir de una postura
diferente a la usada por los docentes, donde se privilegien los elementos enmarca dos por la filosofía
curricular.
Delimitada a la parte de la comprensión auditiva por situarse dentro del reconocimiento de los sonidos
fricativos y la pronunciación de ellos después de haberlos interiorizado con fundamento en un marco
fonetical internacional evitaría los vicios que se mantienen cuando los docentes po nderan un repite después
de mí, sin el considerando de la gesticulación adecuada en el aparato fonador. Aunado a lo anterior se busca
evitar la fosilización en los hablantes que posterior a la edad escolar es muy marcada en los hablantes. Cuando
el ser humano es pequeño puede evitar lo anteriormente descrito y no alcanzar el término llamado
fosilización, se le “… llama fenómenos lingüísticos fosilizables a aquellos ítems, reglas y subsistemas
lingüísticos que los hablantes de una Lengua Materna particular tienden a conservar” [1]. Esto es, todos los
elementos que serán difíciles de erradicar en una edad adulta y se denotará en el acento que se imprima en
la pronunciación de diferentes palabras, s obre todo de sonidos cuasi parecidos como lo son los fricativos
entre sí.

II. DESARROLLO
De tal manera que, al observar los lineamientos de enseñanza de una lengua extranjera en el sistema
educativo nacional no considera atender la fosilización desde la cuestión didáctica o de planeación; los niños
que cuentan con profesores de idiomas durante el preescolar y primaria ya han rebasado el período crítico
que evita registros fonéticos que puedan llevarlo a cometer errores de reproducción de tales fonemas, dando
como resultado entonces un mal entendimiento con otras personas con las que se quiera comunicar.
Para la educación secundaria, después del supuesto teórico de haber llevado un total de 720 horas antes
de este nivel, los programas vigentes exigen una verdadera competencia comunicativa en los hablantes. No
todos los alumnos que acceden a ésta llevaron actividades en la lengua meta y la mayor parte de quienes sí
lo hicieron fue por tiempo limitado o con docentes que “… volvieron deportados de Estados Unidos, o b ien
sus hijos, quienes no completaron la educación […] más allá de High School; en ninguno de los casos se
trataba de personas con preparación universitaria alguna, y menos con competencias didácticas certificadas”
[2].
No obstante, el proceso de educación sigue su camino ante estas variantes. Se puede observar en los
alumnos que ingresan a este ciclo una dificultad para producir sonidos que antes no habían escuchado y que
asemejan un trabalenguas; empezar a una edad mayor a la ya descrita como crítica disminuye las
posibilidades de que los educandos puedan expresarse de manera más fluida, además de las características
que la etapa posiciona para ellos, la adolescencia, donde se burlan, satirizan, sienten pena por hacer algo que
nunca han hecho.
La acción de poder derivar directrices pedagógicas o didácticas que den margen al trabajo de una teoría
que considere los aspectos antes mencionados, necesita de una metodología apropiada que vaya dando
seguimiento al comportamiento de los sujetos de la investigación. En particular, para poder determinar
elementos didácticos y pedagógicos que involucren actividades dinámicas ante la ausencia de uno de los
principales factores que posibilitan el aprendizaje de una segunda lengua, el tiempo; de tal manera que existe
la necesidad de incrementar la exposición a ella sin la presencia física del docente, para lo cual se recurre a
la aplicación digital WhatsApp, donde se puede dar acompañamiento asíncrono y en aumento de las horas
que se tienen destinadas a tal objetivo, que para la educación secundaria y de acuerdo a los programas de
estudio se estriba en tres módulos de cincuenta minutos a la semana.
Se debe tomar en cuenta la importancia de tal estudio por lo que requiere un modelo investigativo que
contemple desarrollar fundamentos concisos. Uno de los principios de la teoría fundamentada es que
“pertenece al cambio. Desde que los fenómenos no son considerados como estáticos y en constante cambio
como respuesta que envuelve condiciones, ya que un componente importante es con struirse a través del
proceso y hacia el método”[3].
A partir de la clasificación de categorías y propiedades se pueden ir desarrollando elementos que hagan
evolucionar dos de las habilidades más importantes en el aprendizaje de una lengua extranjera, esc uchar y
hablar, en un compendio que se generará a partir de la reproducción acorde con los registros fonéticos
internacionales, priorizando una comprensión adecuada para el oyente como el hablante, después de haberse
desarrollado una didáctica alternativa mediada por la aplicación WhatsApp.
El inglés ha cobrado importancia significativa a nivel internacional en todos los ámbitos, tanto
económicos como de académicos. Lo anterior ha generado la necesidad de aprenderlo o desarrollarlo con la

269
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

finalidad de utilizarlo como un medio de comunicación en un mundo globalizado; no obstante la


trascendencia de lo descrito, los profesores de idiomas no dedican un tiempo para mostrar a los estudiantes
la forma correcta de reproducir los sonidos, tan variantes entre el español y la lengua meta, es decir la fonética
no es enseñada porque se considera que existen otras áreas que pueden beneficiar más en el proceso de
enseñanza de la lengua meta, sin considerar que dicho desarrollo motiva una mejoría debido a otros factores
entre los que se pueden mencionar, el más importante, la función comunicativa de la lengua que es lo que se
persigue desde el punto de vista de los sistemas educativos.
Sin embargo, de las ventajas que mostraron tales estudios se obtuvieron los resultados de:
- Los sonidos aislados no se adquieren de forma repentina sino gradualmente, con periodos largos en
los que el sonido es producido tanto correcta como incorrectamente.
- Existen unos sonidos más difíciles o que se dominan más tardíamente, que otros, fricativas del tipo
/Ɵ/, /z/, /Ʒ/, básicamente. Por el contrario las oclusivas sordas y las nasales parecen ser de más fácil
producción.
Esto, es benéfico en situaciones como la que se aborda en la presente investigación, puesto que, con el
poco tiempo que se invierte en la enseñanza de una lengua extranjera, un contexto desfavorecedor, así como
políticas públicas que se han empleado únicamente teorías para solucionar los aspectos negativos con que se
cuenta en las aulas hacen que el uso de las tecnologías de la información y comunicación debidamente
empleadas puedan dar una respuesta positiva a los alcances que se requieren y no únicamente en teoría sino
en la realidad de los personajes que asisten a las escuelas y quienes se encuentran mediando el aprendizaje.
Emplear los espacios síncronos y ligarlos a los asíncronos es otra oportunidad que brindan las TIC. Éstos
llevan a una forma de comunicación que bien puede ser un elemento de ayuda tanto para los docent es como
para los alumnos; trabajar en momentos de asincronía desarrolla nuevas formas del proceso comunicativo
puesto que, se tienen diferencias sintácticas, semánticas además de pragmáticas al instante de usar una
herramienta tecnológica diferente, esto es, la participación en redes sociales enmarca una especie de libertad
para los educandos toda vez de su flexibilidad, moderando el mediador que esto no se convierta en libertinaje
y/o abuso de la aplicación; todo lo anterior se resume en que tanto facilitador como aprendices tendrían que
aprender y desarrollar nuevas estrategias en el uso de las TICs.
Además, el aprendizaje colaborativo se ve mejorado y no permite que existan aislamientos como ocurre
en los salones de clase. Toda vez que, como diversos estu dios lo indican, los individuos tienen otro tipo de
postura cuando se encuentran trabajando en el internet, lo que puede ser aprovechado para quitar actitudes
antisociales y al mismo tiempo fijar las características axiológicas de quien utilice tales herra mientas, en este
caso, los estudiantes de educación secundaria. La interacción didáctica entonces, no solo depende del docente
sino que los mismos integrantes de los colectivos en los que se está trabajando ponen de sí para participar
ante las actividades que previamente se han diseñado para ahondar en un tema, como en este caso, la
producción de sonidos acordes a los registros internacionales, en los que los adolescentes pueden reconocer
o retroalimentar lo que sus compañeros se encuentren haciendo, siempre con la posibilidad de argumentar el
porqué de sus conclusiones.
Aunado a lo anterior, el modelo de comunicación unidireccional se ve desfasado con el uso de las TICs
en el aula. En el costumbrista modelo de quien lleva la comunicación, el docente, tiene que ser rediseñado
en uno de tipo multidireccional para que todos los integrantes del colectivo puedan dar sus opiniones y a la
vez reconocer o apoyar los esfuerzos de sus compañeros que se encuentren participando en las temáticas
propuestas. De esta manera, “se facilitan modelos de comunicación más dinámicos que propician que el
receptor se convierta en emisor de mensajes, tanto para receptores individuales como colectivos” (ídem).
No obstante, uno de los errores que se pueden mantener al decir de un traba jo con tecnología educativa
es, utilizar un proyector para exhibir diapositivas sobre un tema cualquiera o descargar archivos de la red sin
un elemento crítico que permita hacer conciencia del uso correcto de la información. La otra cara de la
moneda es, precisamente involucrar elementos de los que se ha venido hablando para desarrollar una nueva
didáctica en la educación; deben ser involucradas actividades teleformativas que desarrollen precisamente
las habilidades digitales que pretende el sistema educativo nacional como elementos del perfil de egreso de
la educación básica. Éstas requieren de metodologías bien definidas y desarrolladas a la par de las que se
desarrollan en los ambientes áulicos, una virtualización de los contenidos programáticos y lo que
específicamente concierne a esta investigación, elementos lingüísticos auxiliares en el desarrollo de una
lengua extranjera.
La relación simbiótica entre educación y tecnología ha desarrollado una informática educativa. A partir
de ésta se reconoce el software educativo como un elemento que, ha sido diseñado para, ser utilizado como
un medio didáctico, que facilita los procesos de enseñanza – aprendizaje; sus principales características
incluyen la creación de contextos favorables para que los estudiantes reconstruyan los significados que les
provoca una clase, una materia o un tema en concreto, involucrándose entonces en un momento propicio
para el proceso educativo.

270
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Su evolución ha ido de la mano con las prestaciones que en su momento los sistemas computacionales
han aportado para tal fin. Se preparan mejores prestaciones de manera rápida toda vez que los elementos que
han implementado las computadoras han ido incorporándose para casi todos los aspectos educativos, es decir,
la creatividad con la que se han desarrollado han permitido que se involucren en la participación escolar
desde diferentes ángulos.
De este modo, estas descripciones dan el soporte a su uso en las aulas con la idea de incrementar el tiempo
que los alumnos pasan en diferentes asignaturas y actividades qu e les permite mejorar sus conocimientos
además de enraizar un aprendizaje autodirigido, pues con el paso del tiempo ya no es necesario que se les
indique la disciplina por tomar sus actividades sino que ellos mismos observan cómo éstas pueden ser
benéficas en su aprendizaje.
Como medios que se han implementado para resarcir las brechas cognitivas y digitales las Tic brindan la
oportunidad de fomentar la equidad entre los seres humanos para con el conocimiento. Pese a lo anterior no
todo debe ser retomado como positivo pues dentro de la misma propuesta se entiende que como uno de los
principios los individuos no están preparados para utilizar los artilugios tecnológicos para allegárselo por el
contrario pareciera que únicamente se han desarrollado como una práctica consumista en el que, quien logra
tener los últimos adelantos le brinda un status socioeconómico predominante a vista de todos los demás,
dicho de otra manera, aunque es más fácil para una persona tener un dispositivo electrónico rara vez se
alcanza el mínimo porcentaje que éste puede serle útil en su formación.
Los esfuerzos que se están realizando a través de las universidades y las organizaciones para utilizar el
e-learning como un apoyo de los seres humanos no pueden dar resultados si no existe u na conciencia en
primer lugar de ellos mismos. Determinar las características que permiten que los dispositivos apoyen
directamente en la educación debería ser una tarea enfocada desde la familia, no solamente es seguir el
proceso consumista de tener la mejor cámara o el más llamativo de ellos, en el caso de los smartphones y
tabletas, pues se llega el momento de que ni siquiera se llega a utilizar la mitad de las aplicaciones con que
cuentan estos aparatos, no se diga de las amplias posibilidades que se pu eden involucrar como apoyos
didácticos; el uso desmedido también está afectando la salud física y mental de los usuarios por el sobre uso,
situación que de emplearse una educación impregnada realmente de las competencias digitales permita un
ecosistema de apoyo y no en detrimento de los propios estudiantes.

III. CONCLUSIONES
Hablar de ecosistemas digitales como mediadores en el aprendizaje del conocimiento de acuerdo con los
avances de esta investigación pueden parecer distantes de lo que se ha planteado en diferentes estudios, no
por la falta de tecnología o el poco acercamiento a la tecnología, por el contrario, un uso poco consciente de
los avances que se tienen o únicamente para momentos de esparcimiento. La categorización que se ha
empezado a construir está demostrando que, a partir de las actividades que los alumnos siguen en una
planeación dirigida se encuentran con diferentes detenimientos por el poco uso formal que se le da a una
aplicación de red social, pocos son los individuos que utilizan los potenciales de ellas o simplemente las usan
de manera equivocada.
Los alcancen que al momento se tienen en la investigación son :
1- La usabilidad de una red social como lo es WhatsApp apoya firmemente la didáctica de aprendizaje
una lengua extranjera.
2- Los alumnos que usan redes sociales raramente le ven aplicaciones de uso escolar, únicamente de
esparcimiento.
3- El uso de las redes sociales y aplicaciones digitales son de manera indiscriminada y sin tener un
control de lo que se ocupa, cuentas de correo electrónico, perfiles, entre otros.

IV. REFERENCIAS BIBLIOGRÁFICAS


[1] Alexopoulou, Angélica. La función de la interlingua en el aprendizaje de lenguas extranjeras. Revista Nebrija de Lingüística
Aplicada. Volumen (9) 2010.
[2] Calderón, David. La política educativa en actual del inglés en México. En “Sorry –el aprendizaje del inglés en México”.
Mexicanos Primero, México, 2015
[3] Glaser Barney G., Strauss Anselm L. T he Discovery of Grounded T heory. Strategies for Qualitative Research.
AldineT ransaction, U. S. A, 2006 (Reimp.)
[4] Cabero Almenara, Julio. Nuevas tecnologías aplicadas a la educación. Mc Graw Hill, España, 2006

271
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Uso del sistema PLC (Power Line


Communications) como propuesta para la
distribución de Internet mediante red eléctrica
de baja tensión
Use of the PLC system (Power Line
Communications) as a proposal for the
distribution of the Internet through a low
voltage power network
Juan Adalid Mora Reyes
Universidad Nacional de Ingeniería, Nicaragua
juanmorareyes99@[Link],

Victor Manuel Rocha Galo


Universidad Nacional de Ingeniería, Nicaragua
vrochagalo@[Link]

Resumen — Este documento aborda una interesante opción para mejorar la cobertura de Internet dentro del Laboratorio de Redes
de la Universidad Nacional de Ingeniería para ello se trabajó con el sistema PLC (Power Line Communications) como propuesta
alternativa de conexión a internet mediante la transmisión de datos a través de la red eléctrica existente. Dicho laboratorio cuenta
con una conexión a internet mediante Ethernet resultando un poco incomodo por que debe haber una unidad central de conexión
que une las computadoras a la red, cables muy largos donde cada equipo debe estar en la misma ubicación general y al lograr una
conexión a internet para todos los equipos la velocidad de la conexión puede verse comprometida. Se desarrolló un caso de estudio
para demostrar el uso de la tecnología PLC en el laboratorio ofreciendo conexiones estables y robustas con buenas métricas de
rendimiento usando el cableado eléctrico, puede crear fácil e instantáneamente una red de línea de corriente de hasta 200 Mbps, con
la capacidad de conducción de hasta 300 metros de cable Ethernet sin el desorden de estos [9].

Palabras clave; formato; estilo; títulos.


Abstract — Abstract - This document addresses an interesting option to improve Internet coverage within the Network
Laboratory of the National University of Engineering. To do this, the PLC system (Power Line Communications) was used as
an alternative Internet connection by transmitting data through the existing electricity network. This laboratory has an internet
connection through Ethernet, which is a little uncomfortable because there must be a central connection unit that connects the
computers to the network, very long cables where each device must be in the same general location and to achieve a connection
to Internet for all computers the speed of the connection can be compromised. A study was developed to demonstrate the use
of PLC technology in the laboratory by offering stable and robust connections with good performance metrics using electrical
wiring, you can easily and instantaneously create a current line network of up to 200Mbps, with the capacity driving up to 300
meters of Ethernet cable without the mess of them.
Keywords; Internet; telecommunications; electric current

I. INTRODUCCIÓN
El Internet ha significado una revolución sin precedentes en el mundo de la informática de las comunicaciones [6], que ha
transformado a la humanidad. Sus orígenes se remontan a 1969 y hoy en día es una de las cosas más utilizadas por todo el
mundo. En la actualidad las velocidades de acceso a internet son de gran importancia en la transmisión de datos
independientemente del medio que utilice [5]. La conexión a Internet es considerada un medio de comunicación de gran
importancia internacional como herramienta de trabajo o simplemente para el ocio. La tecnología de transmisión de red local

272
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

más solicitada actualmente es el Wifi. La comodidad que brinda este sistema, y el hecho de que no necesita ningún tipo de
instalación ni cableados, lo convierte en el medio de transmisión por excelencia. Si embargo, la tecnología Wifi tiene, como
principal inconveniente, la inestabilidad del servicio debido a interferencias, obstrucciones y/o falta de cobertura en la zona.
Este problema, en muchos casos, obliga al usuario a optar por utilizar cable Ethernet, que es un sistema más fiable, a la par que
más engorroso, ya que necesitas una instalación de cableado que, por lo general, no está implantada. A falta de una instalación
Ethernet, o de calidad en la señal Wifi, existen varias alternativas de conexión que nos pueden ayudar. Una de las más
interesantes, y a la vez de las más desconocidas, es el PLC.
PLC en sus siglas en inglés (Power Line Communications) es un sistema que permite la transmisión de datos a través de la
red eléctrica existente. En la actualidad, esta tecnología nos ofrece una alternativa a la banda ancha ya que el sistema PLC
utiliza una infraestructura ya desplegada, como son los cables eléctricos. El sistema PLC sirve como alternativa de conexión de
datos. Lleva cierta ventaja al Wifi debido a que con la distancia pierde intensidad y al Ethernet por sus costosas instalaciones.
II. ANTECEDENTES
La idea de utilizar el cable eléctrico para la transmisión de información no es nueva, el uso del PLC en sus orígenes se limitaba
al control de las líneas eléctricas y a la transmisión a baja velocidad de las lecturas de contadores. Más adelante, las propias
empresas eléctricas empezaron a utilizar sus propias redes eléctricas para la transmisión de datos a modo interno. En el caso de
Nicaragua es conocida como Power Line Carrier, únicamente utilizado por la Empresa de Transmisión eléctrica (ENATREL)
empleando PLC para comunicarse; los cuales son Ondas Portadoras para líneas de alta tensión a las subestaciones remotas (RTU),
el Centro Nacional de Despacho de Carga (CNDC) y el Centro de Control de la Gerencia de Transmisión, utilizan los enlaces
PLC (Power Line Carrier). De esa manera se trasmiten con seguridad y confiabilidad las señales para telefonía, telemedidas,
telemando, tele regulación y tele protección [1].
III. ANALISIS Y DISEÑO
PLC según la empresa sueca ILEVO, la tecnología PLC o de comunicación en Líneas de Energía es aquella que permite a
través del cableado eléctrico convencional transmitir señales de vos, datos, internet, telefonía ofreciendo esos servicios a sus
clientes finales. El funcionamiento de la tecnología PLC la cual usando señales de alta frecuencia en la red de transmisión
eléctrica requiere de dispositivos que combinen la señal de los datos con la corriente de baja tensión, Además de en la
transmisión de datos por la red eléctrica este tipo de modulación es muy utilizado también en redes GSM y en comunicaciones
aeroespaciales debido al poco ancho de banda necesario y la robustez de la señal en medio hostiles [8]. Ha sido una tecnología
usada desde hace tiempo para comunicaciones que utilizaban pequeños anchos de banda, hoy en día la tecnología PLC nos
permite transmitir datos a toda velocidad [5].
La Arquitectura de la Red está constituida por tres niveles Jerárquicos; La Red de Acceso (Outdoors), La Red de
Distribución (Indoors) y el Core Network siendo el nivel mayor de la Jerarquía este es un equipamiento que agrega todo el
tráfico de los usuarios, los servidores de operación de Red y las interconexiones con los operadores de servicios.
IV. METODOLOGIA
El laboratorio de Redes de la Universidad Nacional de Ingeniería es una unidad de apoyo tecnológica orientada a fortalecer
y ayudar. Fortaleciendo la infraestructura de soporte tecnológico de la Universidad e ayudando a la formación académica
Universitaria de los estudiantes. En dicho Laboratorio existen 21 computadoras de escritorio las cuales están conectadas a una
central de conexión que une las computadoras a la red, con cables muy largos, enredados entre sí y tendidos en él piso resulta
un poco tequioso la movilización dentro del mismo (Fig.1) y al establecerse la conexión a internet mediante todos los equipos
conectados a la red la velocidad de la conexión se ve comprometida obteniendo resultados negativos y bajo rendimientos.

Figura 1. Cables de Red


El HomePlug es un estándar de red que se presentan como alternativa a las redes inalámbricas. La tecnología PLC se divide
en Outdoors (PLOC) y Indoors (PLIC), siendo el Outdoors de uso exterior que comprende la red eléctrica que va desde el lado
de baja tensión del transformador de distribución hasta el medidor de energía eléctrica, este primer sistema es administrado por
un equipo cabecera (Primer elemento de la red PLC) conecta a esta red con la red de transporte de Telecomunicaciones. De
esta manera este equipo cabecero inyecta a la red eléctrica la señal de datos que proviene de la red de transporte y el Indoors

273
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

de uso interior cuyo tramo va desde el medidor del usuario hasta los tomas corrientes o enchufes ubicados en el interior, este
sistema usa como medio de transmisión el cableado eléctrico interno. La señal utilizada para transmitir datos a través de la red
eléctrica suele ser de 1,6 a 30 MHz, la cual difiere mucho de la frecuencia de la red eléctrica convencional (60 Hz) esto supone
que la posibilidad de interferencias entra ambas señales es prácticamente nula. Internamente el modem PLC implementa un
acoplador eléctrico capaz de separar la señal de datos de la señal de alimentación y la de telecomunicaciones e inyectar señal
de alta frecuencia en la red eléctrica, el acoplador es un dispositivo pasivo, que consta básicamente de un filtro paso bajo y otro
paso alto.
Esta solución consta de 2 etapas la cuales son las instalaciones de los dispositivos HomePlug (Fig.2) y la prueba de las
conexiones en el laboratorio, que se harán con medidores de velocidad de páginas web.

Figura 2. Kit HomePlug

A. Instalación
Lo primero que se hace es conectar el PLC «emisor» el cual se enchufa en la corriente eléctrica junto al router, conectamos
el cable ethernet del router al PLC para transmitirle la conexión a Internet. Al enchufar este emisor en la corriente eléctrica el
internet se desplaza por dentro del circuito cerrado de electricidad del Laboratorio, Mientras que el PLC «receptor» lo colocamos
en el enchufe de la zona donde queramos la cobertura de red. Este receptor recibe a través de la corriente eléctrica la conexión a
Internet con una altísima calidad. Posteriormente se conecta otro cable de red desde el receptor a nuestra PC. Para tener más
puertos de conexiones utilizaremos un switch (Fig.4). La figura 3 ilustra de manera sencilla como instalar el sistema PLC.

Figura 4. Switch para obtener mas Puertos

Figura 3. Conexión con Sistema PLC


B. Pruebas
Como resultado de las pruebas se pudieron tener los siguientes resultados en el laboratorio. Instalación rápida y sencilla:
Debido a que esta tecnología utiliza la red eléctrica ya existente en el laboratorio, no requirió de la instalación de cableado
adicional., la velocidad del internet estable; Se hicieron pruebas con la finalidad de demostrar que esta tecnología no afecta la
velocidad del internet que es proporcionada por el ISP. Las condiciones del cableado, así como la distancia entre dos puntos e
interferencias termo magnéticas (fusibles y/o interruptores de corriente) no fueron factores que influyeron en la velocidad del
internet.
Las pruebas se realizaron con equipos conectados a la red para ver el estado de la conexión y que tan eficiente es en
comparación a las demás alternativas. Por otro lado, se hicieron dos mediciones distintas, una en una situación normal del uso
del laboratorio con el 100 de las computadoras y la otra introduciendo interferencias a través de regletas o conectando aparatos
eléctricos de gran consumo en la red.

274
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Figura 6. Prueba con Sistema PLC


V. CONCLUSIONES
El En general, los PLC ofrecen conexiones estables y robustas con buenas métricas de rendimiento al estar conectadas
todas las computadoras y un mejor orden con los cables de red en el Laboratorio, las redes PLC se comportan mejor que el
Ethernet. La seguridad es otro punto en el que no hay que preocuparse ya que se puede proteger mediante emparejamiento, de
modo que nadie pueda conectar otro PLC en un punto de la instalación eléctrica y acceda a Internet sin nuestro consentimiento.
Por otro lado, la implementación del acceso a internet a través de la red eléctrica por medio del sistema PLC es viable, ya que
solo se debe de invertir en el costo inicial de los equipos PLC y la red de energía eléctrica de baja tensión sirve como red de
comunicaciones, además no es necesario hacer algún cambio en el cableado debido a que no quiere algún cable especial [7].
PLC incluyen la red de Comando y Control, que permite el monitoreo y la administración local y remota de dispositivos
conectados a una sola red [9].
VI. AGRADECIMIENTOS
Agradecer a Dios todo poderoso y motor de nuestras vidas, por brindarnos el conocimiento, la sabiduría y el entendimiento
para poder culminar con éxito esta etapa de nuestras vidas.

Al Msc. Ing. Gabriel Lacayo Saballos, por su nata labor como profesor, por ser una persona incondicional al momento de ser
nuestro tutor, por su minucioso trabajo de revisar cada detalle de este esfuerzo realizado en conjunto ya que nos ha enseñado
el valor del esfuerzo y apoyado en gran manera al crecimiento profesional de sus alumnos y en especial a nosotros.
VII. REFERENCIAS BIBLIOGRÁFICAS
[1] Arteaga Manzanares, G. F., & Chong Fuentes, J. A. (2012). Análisis de las Redes PLC como propuesta de servicio de comunicación en Nicaragua.
Managua
[2] Cambronero, A. (23 de Junio de 2004). BlogPocket. Obtenido de [Link]
[3] Romero, J. M., & Pinnell, K. J. (2012). Comunicaciones por la Red Electrica PLC. Managua.
[4] Seviila Hernández, M. J. (2009). Utilización de la tecnología PLC(PowerLine Communications) Indoos como alternativa para Redes de Área Domestica.
Managua.
[5] Libro de redes de computadoras, autor DR. Andrew S. Tanenbaum tercera edicion, editorial prentice.
[6] (2017)Noticiasdot acceso marzo 2019 [online] Aviable:[Link]
[7] Transmision de datos por la red electrica, victorgarcia acceso Aviable : [Link]
[8] Test de velocidad acceso abril 2019 [online] Aviable:[Link]
[9] Yitran2009, Sobre PLC (Powerline Communication)[online] Aviable: [Link]

VIII. BIOGRAFÍA

Juan Adalid Mora Reyes nació en Managua Nicaragua, el 27 de marzo de 1999. Se graduó de Bachiller de Ciencias y letras en el
Colegio ¨MI Redentor¨ en Managua. Luego de bachillerarse aplico en la Universidad Nacional de Ingeniería para estudiar Ingeniería
en Computación. En el segundo año de la carrera, participo en el Rally Latinoamericano de Innovación 2017 juntos con otros
compañeros. Actualmente cursa el cuarto año de Ingeniera en Computación en la Universidad Nacional de Ingeniera

Víctor Manuel Rocha Galo nació el 14 de marzo de 1999 en Managua Nicaragua. Su primaria la curso en el colegio Hispano
Americano, juntos con son cinco años de secundaria, recibiendo su diploma de Bachiller en Ciencias y Letras. Luego de Bachillerarse,
aplico en la Universidad Nacional de Ingeniera para estudiar Ingeniera en Computación (la cual era si primera opción). En el segundo
año de la carrera participo en el Rally Latinoamericano de Innovación 2017 junto con compañeros como equipo. Actualmente cursa
el tercer año de Ingeniera en Computación en la Universidad Nacional de Ingeniera.

275
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Inteligencia Artificial y el Testimonio en la Tríada


Víctima, Victimario y Testigo
Juan de la Cruz Berlanga
Universidad Carlos III
Departamento de Filosofía
Madrid, España
[Link]@[Link]

Resumen — En la triada formada por Víctima, Victimario y Testigo analizamos el rol de la Inteligencia Artificial como este último,
entendido el sujeto con la capacidad de dar Testimonio. [1] En este artículo analizamos la función del Testimonio en relación a la Víctima
o Víctimas y tratamos de observar si una Inteligencia Artificial ideal podría cumplir este cometido y las distintas tecnologías existentes.

Inteligencia Artificial, Testimonio, Víctima, Automatización

I. INTRODUCCIÓN

Las guisas del Testigo y el papel del Testimonio se ha estudiado desde diversas perspectivas filosóficas como son la
Epistemología o la Teoría del Sujeto o desde las ciencias sociales como la politología o la sociología[2]. Incluso desde la
perspectiva de la psiquiatría con el objetivo de ayudar a sanar de un trauma. No obstante la revisión desde la perspectiva de la
Inteligencia Artificial no es frecuente. En este estudio no plantearemos la solución al problema desde un punto de vista técnico o
de ingeniería, lo que sería sin duda otra cuestión interesante a plantear, sino sobre las distintas aplicaciones existentes de la
Inteligencia Artificial a la hora de cubrir cuestiones relacionadas con el Testimonio.

Por Testimonio entendemos no sólo la transmisión o constatación de un conocimiento o un hecho de manera similar a como se
puede hacer en un juicio legal, que también, sino que consideramos también la función de Reparación del daño, o al menos el
intento, infringido a la víctima y su dignificación moral. Esta reparación o dignificación se puede llevar a cabo no únicamente
mediante una transmisión verbal, sino también mediante técnicas de comunicación audiovisual y artísticos como filmes,
monumentos, etc.

El debate sobre que es la Inteligencia Artificial es antiguo y ha existido desde la creación de los primeros computadores una
búsqueda constante en torno a cierto esencialismo sobre qué es lo que nos hace Inteligentes a los humanos y, sintetizando, que es
lo que nos hace de por sí humanos y si pudiera ser alcanzado o emulado mediante la Tecnología. A medida que avanza ésta
cuestiones como el cálculo matemático, el ajedrez, la creatividad, el Test de Turing o la empatía se van cuestionando.

Buscamos mediante este estudio revisar las tecnologías existentes en Inteligencia Artificial que cubren esta cuestión.

No es objeto de este estudio analizar que entendemos por Inteligencia y aplicaremos la siguiente definición de Inteligencia
Artificial: un programa tal que en un mundo aleatorio no tendrá un comportamiento peor que el de un Ser Humano.[3]. En este
contexto la Inteligencia Artificial podrá ser por tanto equivalente a un ser Humano, con la diferencia que ha sido desarrollado y no
es natural, o con capacidades superiores que revisaremos. En este caso el comportamiento no peor que el de un Ser Humano sería
aplicado a las habilidades, conocimientos y capacidades relativas a la hora de realizar un Testimonio.

El Testimonio tiene numerosas consideraciones de cara a que cumpla con una serie de cometidos que veremos. Por un lado,
como indicamos, dejar constancia de que el hecho violento ha sucedido contra la víctima, de forma similar a como se adquiere
conocimiento durante un juicio convencional tras una situación de gran violencia [4]. Esto es una transmisión de información, de
conocimiento, de un suceso de gran violencia, en unas condiciones que pudiera ser válida para considerarlo creíble. Por el otro se
busca una Reparación de tipo moral bajo una serie de condicionantes. Este tipo de Testimonio y Reparación asociada tienen a
menudo la forma de expresión artística pública, por ejemplo mediante monumentos o documentos audiovisuales [5].

Trabajaremos por lo tanto desde estos dos enfoques: la capacidad de la Inteligencia Artificial para transferir un conocimiento
(espistemología) con respecto a un hecho y la capacidad de la Inteligencia Artificial en los aspectos del Testimonio relacionados
con la Reparación.

276
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

El enfoque no incluye únicamente la capacidad de la Inteligencia Artificial para “hablar” asumiendo el Rol de Testigo, sino todo
sus posibles aportaciones a ese proceso. La capacidad de testificar como sujeto activo de una Inteligencia Artificial es la que más
nos interesa pero en el perímetro de este trabajo consideraremos también como afecta a un Testimonio dado por un humano la
colaboración o apoyo de esta Tecnología.
II. STATUS QUAESTIONIS
El estudio de la Inteligencia Artificial en el ámbito del Derecho durante un juicio o argumentando es amplio. También existen
numerosos estudios respecto a la Inteligencia Artificial y la capacidad de empatizar de interlocutores humanos.

Existen igualmente investigaciones en la Inteligencia Artificial que permiten detectar e incluso predecir situaciones de
violencia y el empleo de algoritmos que crean memoria en red, lo que tiene aplicabilidad para la cuestión del Olvido.

Hay además estudios sobre como por medio del Testimonio se produce Reparación tanto a nivel social como a nivel individual.

Sin embargo no hemos encontrado un análisis de estas cuestiones desde un todo holístico.
III. SOBRE LA TESTIFICACIÓN

Si consideramos que una Inteligencia Artificial tiene un conocimiento p tratamos de ver su capacidad de transmitir a la
Sociedad y/o su representación que p, de forma que p sea creíble para ella.

Para que una transferencia de conocimiento de este tipo se llevase a cabo la Inteligencia Artificial debería formar parte de las
creencias del que escucha, incluyendo a la propia víctima [6]. Estaríamos ante un Acto de Habla en el cuál tanto la sociedad
como el que escucha infiere [7] la información proporcionada por la Inteligencia Artificial por lo que sería condición
indispensable que exista ese conjunto de creencias comunes.

Como se establece ese conjunto de creencias mediante el cual la sociedad (y la víctima) confían en la capacidad de una
Inteligencia Artificial está más allá de la demostración empírica actual, si bien existen algunos indicadores razonables que
veremos.

Sucede además que no hablamos sólo de la capacidad de generar una relación de confianza convencional entre los sujetos de
la comunicación sino de una relación de confianza de tipo Epistémico [8]. Para la Sociedad (representada o no mediante, por
ejemplo, un Tribunal, y para la Víctima la Inteligencia Artificial tiene que tener la capacidad de ofrecer un conocimiento
válido y comprobable. Podría haber una excepción en este tipo de comprobación en el sentido en que el que es receptor del
conocimiento p tenga una confianza absoluta en el que la transmite: la Inteligencia Artificial en este caso.

La capacidad epistemológica de la actual Internet es interesante aquí a modo de comparativa. Si bien no es menos cierto que
en la actual red existen los fraudes la razón principal de su desarrollo fue el compartir, analizar y revisar conocimiento
científico de forma tal que la información que en ella reside no deja de ser una trasposición de las discusiones de la Academia.
[7] En ese sentido una fuente de datos suficientemente acreditada soportada por una tecnología recibe credibilidad epistémica
por parte de la sociedad.

Cabe además la posibilidad de que por medio de la Inteligencia Artificial el requisito de Hume para dar validez a un
Testimonio como prueba de conocimiento se cumpla en un mayor grado que a través de un Testimonio Humano. Pongamos
por caso: si la Inteligencia Artificial afirma que conoce p, la Inteligencia Artificial tiene la capacidad de mostrar p, por
ejemplo porque ha almacenado la situación de violencia en algún tipo de memoria y buscado un argumento. [9]

En este sentido su capacidad para testimoniar vencería incluso las necesidades impuestas por la dependencia que tiene el que
escucha (víctima, sociedad) del que presta un testimonio o palabras con una información o conocimiento [10] Esta capacidad
de detectar situaciones de violencia mediante Inteligencia Artificial existe hoy y continuará en el futuro. Los ejemplos para
detectar mediante procesado de imágenes situaciones de violencia se expanden a lo largo del mundo en diferentes escenarios
como la violencia escolar[11]. Por medio del procesamiento del lenguaje natural es también posible predecir las mismas en
temáticas como películas[12].

Existe además un valor añadido en estas capacidades para testificar un conocimiento por parte de una Inteligencia Artificial:
la posibilidad de vencer “al Olvido” mediante la tecnología [13]. El problema del Olvido no es extraño en las situaciones de
gran violencia contra colectivos [14]. En el marco de situaciones de cambio de régimen a menudo se produce una situación de

277
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Amnistía mediante la cuál los Victimarios, de acuerdo a la versión oficial del régimen, son condenados de la cárcel y los
perpetradores de torturas o similares del propio régimen son así mismo no investigados y “Perdonados.”

De esta manera los militantes del antiguo régimen que perpetraron violencia son reintroducidos en la nueva sociedad
resultante mientras que, las víctimas de su violencia, pierden la accesibilidad al Testimonio con el objetivo de mantener la paz
social o la estabilidad política y el objetivo de una presunta reconciliación por delante.[15]

A base de silenciar en aras de la reconciliación y de no hacer pública la situación de violencia se olvida. En este sentido la
Tecnología que soporta una Inteligencia Artificial puede ayudar manteniendo un registro imborrable de toda la violencia
generada. En línea con esta argumentación el Testimonio de la Inteligencia Artificial ganaría una credibilidad a la hora de
transmitir el conocimiento p.

Un indicador positivo de la capacidad para el testimonio epistémico de una Inteligencia Artificial lo encontramos en su
capacidad actual en el entorno jurídico y en la capacidad para desplegar argumentos [16]. La capacidad de razonar mediante
esquemas que incluya el impacto emocional del mismo se encuentra vinculado al discurso actual a la hora de abordar
problemas legales [10] empleando para ello hechos anteriores, árboles de decisión, el factor de la audiencia y el marco de la
Teoría del Diálogo [17]. Mediante éstos ejemplos de consulta de información es posible armar combinando Machine Learning
y Técnicas de Procesamiento del Lenguaje Natural defesas de casos judiciales o bien contraargumentar en debates de temática
diversa.

Sumado al resto de la información que hemos visto con anterioridad la Inteligencia Artificial funcionaría de forma similar a
la de un perito científico en un tribunal y ya hay actuaciones de cara a definir su entidad jurídica [18]

La capacidad de sistemas artificiales conversacionales (con una Inteligencia Artificial muy limitada) tienen resultado a la
hora de comunicar una información de forma interactiva con humanos (la Sociedad) y Víctimas de Extrema Violencia,
transfiriendo información de una forma que posibilita una interrelación. Se pueden tener conversaciones interactivas con ellos
permitiendo interactuación tridimensional y peticiones de información sobre escenarios de violencia [19].

Ésta forma de explicar un hecho no se limita únicamente a una declaración en un Sistema de tipo Institucional o mediante
comunicación verbal sino que pueden tener así mismo un carácter Audiovisual. La capacidad de desarrollar comunicación
audiovisual y artística de una Inteligencia Artificial para comunicar es también factible e indistinguible actualmente de la que
pudiera hacer un humano, conforme a nuestra definición de Inteligencia Artificial [20]

Creemos que en base a esta misma definición y a las demostraciones aquí evaluadas una Inteligencia Artificial tendría una
capacidad equivalente a la de un Humano, y probablemente superior, para transferir un conocimiento p a una Sociedad o
Víctima.

Sin embargo conforme a Agamen y a Mate, el Testimonio no se limita únicamente a la transferencia de un conocimiento p,
sino que va un paso más allá y tiene una función de Reparación Moral (y a menudo también física) de la Víctima.

IV. SOBRE LA REPARACIÓN

Los efectos terapeúticos a nivel psíquico del Testimonio en una víctima de gran violencia se probaron tras la dictadura
chilena y han tenido efecto en otros conflictos como el de Sri Lanka [21] o Bosnia [22]. Las víctimas mejoran en esta línea
cuando testifican. En este caso es la Víctima quien realiza esta función y la que menciona su visión a otra persona.

Una Víctima de gran violencia puede dar testimonio a una Inteligencia Artificial de manera que pueda ayudarle en
situaciones en que se encuentra en estado de shock o cohibida [23] y también puede ser de gran ayuda este tipo de apoyo
en menores [24]. La posibilidad de empatizar entre menores de edad e Inteligencias Artificiales es un hecho [25]
demostrado en el ámbito de la educación por ejemplo.

Las necesidades que debe cumplir un Testimonio de cara a la Reparación serían tres [26]:

- Empoderamiento de la Víctima
- Aceptación Social
- Catarsis

278
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Si bien como indicaba Primo Levi no existe una solución concreta [27] y de hecho tanto en los escenarios de Timor
Oriental como de las Islas Salomón la Reparación tuvo un impacto desigual. Por ejemplo en el caso de las violaciones a
mujeres el dar Testimonio lejos de dignificarlas en su sociedad las marcaba, ahondando más en el trauma.

En línea con esto, el Rol que puede adoptar aquí una Inteligencia Artificial cambia. Si bien como hemos visto puede
servir como una herramienta de apoyo al Testigo o a la Víctima para que abran Testimonio o aportar una serie de pruebas
e información sobre su sufrimiento y gran violencia recibida (ya sea verbal o artística) o, incluso, suponiendo un blindaje
contra el Olvido, su capacidad para los tres puntos descritos concernientes a la Reparación tiene distintas implicaciones.

CONCLUSIONES

A tenor de las recientes investigaciones en documentación y epistemología y en ausencia de una Inteligencia


Artificial equiparable a un ser humano que permitiera una muestra empírica es posible mostrar que la Inteligencia
Artificial puede ofrecer un Testimonio en el sentido de transmitir una información, de manera incluso superior en
algunas cuestiones a una metodología basada en el Testimonio humano mediante los distintos ejemplos que hemos visto
aquí. Y no solamente como capacidad de memoria o recuerdo, sino que también existe capacidad para prestar
argumentación ante preguntas flexibles.

Respecto a la Reparación el apoyo de la Inteligencia Artificial, como una herramienta, podría facilitar los requisitos
de Empoderamiento, Aceptación Social y Catarsis que se requieren como condición necesaria, pero ni si quiera suficiente
de cara a reparar a una Víctima o Víctimas de gran violencia y que van desde el apoyo al testigo a la conservación del
testimonio en el tiempo.
V. REFERENCIAS

[1] G. Agamben, Lo que queda de Auschwitz, Pre-Textos, 2002


[2] R. Mate. Memoria de Auschwitz, Trotta, 2003
[3] D. Dobrev, A Definition of Artificial Intelligence. In: Mathematica Balkanica, New Series, Vol. 19, Fasc. 1-2, pp.67-74, 2005
[4] H. Arendt, Eichmann in Jerusalen, Viking Press, 1963
[5] B. Faure, C. Lanzmann 1985, Shoah, Francia, New Yorker Films
[6] J. Lackey, Learning from Words: Testimony as a source of Knowledge, Oxford Scholarship, 2008
[7] D. Sperber and D. Wilson, Relevance: Communication and Cognition, Blackwell Oxford UK and Cambridge US, 1986
[8] F. Broncano, La confianza en otros y la autoridad epistemológica del Testimonio, Cuestiones filosóficas, ensayos en honor de Eduardo Rabossi, 2008
[9] E. Aharoni, A. Polnarov, T. Lavee, D. Hershovic, R. Levy, R. Rinott, D. Gutfreund and, N. Slomin, A Benchmark Dataset for Automatic Detection of Claims
and Evidence in the Context of controversial topics, Proceedings of the First Workshop on Argumentation Mining, Association for Computational Linguistic,
2014, pp. 64-68
[10] F. van Eemeren, B. Garssen, E. Krabbe, A. Henkemans, B. Verheij, J. Wagemans, Handbook of Argumentation Theory, Springer, 2014
[11 D. Barzman, N. Yizhao, M. Griffey, A. Bachtel, L. Kenneth, H. Jackson, M. Sorter, M. DelBello, Automated Risk Assesment for School Violence: a Pilot
study. Psychiatric Quarterly, 2018
[12] V. Martínez, K. Somandepalli, K. Singla, A. Ramakrshna, Y. Uhls, S. Narayanan, Violence Rating Predictions from Movie Scripts, Poster 1795, AAAI, 2019
[13] M. Nofer, P. Gomber, O. Hinz, and D. Schiereck, "Blockchain," Business & Information Systems Engineering: Vol. 59, Iss. 3, 183-187, 2017
[14] R. Hatcher, The Power of Memory and Violence in Central America, Ed. Palgrave MacMillan, 2018
[15] P. Aguilar, A. Peyne Revealing New Truths about Spain’s Violent Past, Ed. Palgrave MacMillan, 2016
[16] R. Walton., How to Refute an Argument Using Artificial Intelligence. Studies in Logic, Grammar and Rhetoric, 23, 2011
[17] A. Velasco, and L. Alonso, Una síntesis de la teoría del diálogo. Argos, 26. 100-114, 2009
[18] S Chopra, and L.F. White L.F., Slaves, Vending Machines, and Bots. A Legal Theory for Autonomous Artificial Agents. Ann Arbor, MI: University of
Michigan Press, 264 pp., 2011
[19] D. Traum, A. Jones, K. Hays, H. Maio, O. Alexander, R. Arstein, A. Gainer, K. Georgila , K. Haase, K. Jungblut, A. Leuski, S. Smith, W. Swartout, New
Dimensions in Testimony: Digitally Preserving a Holocaust Survivor’s Interactive Storytelling, Springer 2015
[20] A. Ramalho,. Will Robots Rule the (Artistic) World? A Proposed Model for the Legal Status of Creations by Artificial Intelligence Systems. Journal of
Internet Law, 2017
[21] T. Puvimanasinghe , and, I. Price, Healing through giving Testimony: an empirical study with Sri Lankan Torture survivors, Transcultural Psychiatry,
McMillan, 2016, Vol. 53, pp 531-550
[22] S. Luebben, Testimony work with Bosnian refugees: living in legal limbo, British Journal of Guidance & Counselling, 31:4, 393-402, (2003)
[23] USC(2018, November 15). Can Artificial Intelligence Help Abuse Victims Disclose Traumatic Testimony?. NeuroscienceNews. Retrieved November 15,
2018 from [Link]
[24] G. Vergallo, E. Marinelli, V. Mastronardi, NM. Di Luca, S. Zaami, The credibility of testimony in minors allegedly victims of abuse within the Italian
legislative framework, Intenational Journal Law Psychiatry, Vol. 56, pp. 58-64 (2017)
[25] F. Tanaka, A. Cicouriel, and J. Movellan, Socialization between Toddlers and Robots at an early education center, Proceedings of the National Academy of
Sciences Nov 2007, 104 (46)
[26] H. Guthrey, Victim Healing and Truth Comissions, Transforming Pain Through Voice in Solomon Islands and Timor-Leste ,Springer 2015
[27] P. Levi, la Tregua, Ed. Giulio Einaudi, 1963

279
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Talleres

280
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Introducción a Machine Learning con Python


Jairo Pacheco Campos [1]
Allan Carrillo Salazar [2]
Efrén Jiménez Delgado [3]
Jose Pablo Brenes Alfaro [4]
Jason Barrantes Rodríguez [5]
Anthony Segura Chaves [6]

Tecnológico de Costa Rica, Costa Rica [1,2,3,4,5,6]


pachecocamposjairo@[Link] [1]
acarrillosa22@[Link] [2]
ejimenezdelgado@[Link] [3]
josepablo1997@[Link] [4]
jasonbar1998@[Link]
ansechaves@[Link] [5]

Resumen — Este curso introducirá al aprendiz automático aplicado, centrándose más en las técnicas y métodos
que en las estadísticas detrás de estos métodos, introduciendo el kit de herramientas scikit learn a través de los
modelos de clasificación, regresión y agrupación con el fin de aplicar machine learning de una manera más
rapida y utilizada en el analisis de los datos. El curso finalizará con la identificación de las diferencia entre una
técnica supervisada (clasificación) y no supervisada (agrupación), identificar qué técnica necesitan aplicar para
un conjunto de datos particular y necesidad, diseñar características para satisfacer esa necesidad y escribir
código python para realizar un análisis.

Palabras clave; scikit learn; machine learning, análisis de datos; python; big data.

I. OBJETIVOS
Objetivo General

Contribuir en la especialización del uso de algoritmos de machine learning por medio de talleres.
Objetivos Específicos
• Construir características que satisfagan las necesidades de análisis
• Crear y evaluar clusters de datos.
• Describir cómo el aprendizaje automático es usado hoy en día.
• Explicar diferentes enfoques para crear modelos predictivos.

II. CONOCIMIENTOS PREVIOS


• Conocimientos de programación.
• Conocimientos de Estadística.
• Conocimientos de matemáticas.
III. METODOLOGÍA
El desarrollo del taller se presentarán los siguientes módulos.
1. Principios sobre el machine learning y sus usos.

281
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Se estudiará conceptos relacionados con machine learning sobre sus usos actuales
introduciendo las diferentes categorías que existen sobre sus algoritmos al igual que su debida
explicación de cada uno.

2. Practica programa de Regresión Lineal.

Se implementará practicas con datos reales sobre el uso del algoritmo de regresión lineal con
todas las etapas que con lleva un analista de datos a la hora de realizar este algoritmo.

3. Practica programa de Regresión Logística.

Se implementará practicas con datos reales sobre el uso del algoritmo de regresión logística
con todas las etapas que con lleva un analista de datos a la hora de realizar este algoritmo.

4. Practica programa de Agrupación de datos.

Se implementará practicas con datos reales sobre el uso del algoritmo de agrupación(k-means)
con todas las etapas que con lleva un analista de datos a la hora de realizar este algoritmo.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Principios sobre el Se estudiará Efrén Jiménez 1 hora
Machine Learning y conceptos Delgado
sus usos relacionados con
machine learning Jose Pablo Brenes
sobre sus usos Alfaro
actuales
introduciendo las
diferentes categorías
que existen sobre sus
algoritmos al igual
que su debida
explicación de cada
uno.

Practica programa Se implementará Jairo Pacheco 1 hora


de Regresión Lineal practicas con datos Campos
reales sobre el uso del
algoritmo de Allan Carrillo
regresión lineal con Salazar
todas las etapas que
con lleva un analista
de datos a la hora de
realizar este
algoritmo.

Practica programa Se implementará Jason Barrantes 1 hora


de Regresión practicas con datos Rodríguez
Logística reales sobre el uso del
algoritmo de Anthony Segura
regresión logística Chaves
con todas las etapas
que con lleva un
analista de datos a la

282
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

hora de realizar este


algoritmo.

Practica programa Se implementará Efrén Jiménez 1 hora


de Agrupación de practicas con datos Delgado
datos reales sobre el uso del
algoritmo de Jose Pablo Brenes
agrupación(k-means) Alfaro
con todas las etapas
que con lleva un
analista de datos a la
hora de realizar este
algoritmo.

V. REQUISITOS
A. Equipo de cómputo
• Laptops o maquinas con procesador CORE I5 o superior.

B. Software
• Lenguaje de programación Python.
• Software Anaconda (preferiblemente).

C. Red
• Conectividad local.

D. Materiales
• Pizarra
• Marcadores
• Borrador
VI. IMPLICACIONES FUTURAS

El uso del machine learning es prácticamente usado por todas las grandes industrias al igual que las
medianas y hasta pequeñas, por lo que, con ayuda de este taller tendrán la capacidad básica de conocer un
poco más sobre estos algoritmos y aplicarlos a casos reales que necesiten análisis de datos.

VII. REFERENCIAS BIBLIOGRÁFICAS

[1] Bloice M.D., Holzinger A. (2016) A Tutorial on Machine Learning and Data Science Tools with Python.
In: Holzinger A. (eds) Machine Learning for Health Informatics. Lecture Notes in Computer Science,
vol 9605. Springer, Cham.
[2] Nelli F. (2015) Machine Learning with scikit-learn. In: Python Data Analytics. Apress, Berkeley, CA
[3] Fowdur T.P., Beeharry Y., Hurbungs V., Bassoo V., Ramnarain-Seetohul V. (2018) Big Data Analytics
with Machine Learning Tools. In: Dey N., Hassanien A., Bhatt C., Ashour A., Satapathy S. (eds) Internet
of Things and Big Data Analytics Toward Next-Generation Intelligence. Studies in Big Data, vol 30.
Springer, Cham
[4] Kashyap P. (2017) The Practical Concepts of Machine Learning. In: Machine Learning for Decision
Makers. Apress, Berkeley, CA
[5] Cleophas T.J., Zwinderman A.H. (2016) Linear Regression (Regression Coefficient, Correlation
Coefficient and Their Standard Errors). In: Clinical Data Analysis on a Pocket Calculator. Springer,
Cham
[6] Cheng W., Hüllermeier E. (2009) Combining Instance-Based Learning and Logistic Regression for
Multilabel Classification. In: Buntine W., Grobelnik M., Mladenić D., Shawe-Taylor J. (eds) Machine

283
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Learning and Knowledge Discovery in Databases. ECML PKDD 2009. Lecture Notes in Computer
Science, vol 5781. Springer, Berlin, Heidelberg
[7] Tao H., Ma X., Qiao M. (2012) Support Vector Machine Selective Ensemble Learning on Feature
Clustering and Genetic Algorithm. In: Wang X., Wang F., Zhong S. (eds) Electrical, Information
Engineering and Mechatronics 2011. Lecture Notes in Electrical Engineering, vol 138. Springer,
London

284
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Introducción Machine Leaning utilizando


Scala y Spark
Anthony Segura Chaves [*]
Jose Pablo Brenes Alfaro [-]
Luis Emilio Salas Vargas [$]
Daniel Amador Salas [@]
Efrén Jiménez Delgado [+]
Jason Barrantes Rodiguez [%]
Tecnológico de Costa Rica, Costa Rica [*,-,$,@,+,%]
ansechaves@[Link] [*]
josepablo1997@[Link] [-]
luissalad56@[Link] [$]
jdamadorsalas@[Link] [@]
ejimenez@[Link] [+]
jasonbar1998@[Link] [%]

Resumen — Este curso tiene como fin proporcionar una introducción a práctica de una programación
funcional utilizando el lenguaje de programación, Scala. El paradigma funcional facilita la programación
paralela y distribuida, y a través de una serie de ejercicios programación, se analizará un conjunto de datos
desde pequeños datases a grandes; desde la programación paralela en arquitecturas multinúcleo hasta la
programación distribuida en un clúster utilizando Apache Spark.

Palabras clave; spark; scala;bigdata;hadoop;programacion; distribiuida; parelela.

I. OBJETIVOS
Objetivo general
Contribuir en la especialización técnica de herramientas de big data por medio de talleres
prácticos
Objetivo Especifico
• Construir programas funcionales utilizando búsqueda de patrones por medio de
machine learning
• Aplicar el diseño de estructuras para manejo de big data.
• Utilizar sentencias que usen efectivamente las colecciones paralelas para el uso de
alto rendimiento.
• Proporcionar elementos de manipular de datos con Spark y Scala

II. CONOCIMIENTOS PREVIOS


• Conocimientos de programación
• Conocimientos básicos de estadística
• Conocimientos básicos de matemáticas

III. METODOLOGÍA
El desarrollo del taller se presentará en los siguientes módulos.

285
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

1. Principios de scala [2,6]


Se estudiarán elementos de programación funcional y se aprenderá a aplicarlos de
manera útil en las tareas de programación diarias. También se desarrollará una base para
razonar sobre programas funcionales.

2. Programación Paralela [3,4,8]


• Razonar sobre programas paralelos de tareas y datos.
• Expresar algoritmos comunes en un estilo funcional y resolverlos en paralelo.
• Escribir programas que usen efectivamente las colecciones paralelas

3. Análisis de Big Data [1,5,7,8]


• Leer datos del almacenamiento persistente y cargarlos en Apache Spark,
• Manipular datos con Spark y Scala,
• Expresar algoritmos para el análisis de datos en un estilo funcional
• Ejecutar modelos de machine learning.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Principios de scala • Reconocer y aplicar • Antony Segura 1 hora
los principios de • José Pablo Brenes
diseño de programas Alfaro
funcionales. • Jason Barrantes
• Escribir aplicaciones Rodiguez
reactivas funcionales
simples
Programación Paralela • Razonar sobre • Luis Emilio Salas 1 hora 20 minutos
programas paralelos Vargas
de tareas y datos. • Efrén Jiménez
• Expresar algoritmos Delgado
comunes en un estilo
funcional y
resolverlos en
paralelo.
• Escribir programas
que usen
efectivamente las
colecciones paralelas
Análisis de Big Data • Leer datos del • Antony Segura 1 horas 40 minutos
almacenamiento • Daniel Amador
persistente y Salas
cargarlos en Apache
Spark,
• Manipular datos con
Spark y Scala,
• Expresar algoritmos
para el análisis de
datos en un estilo
funcional

286
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Ejecutar modelos de
machine learning.

V. REQUISITOS
A. Equipo de cómputo
a. Laptop
b. Máquina de escritorio
B. Software
a. Explorador web
b. Sistema operativo Linux o Windows
c. Bloc de notas
C. Red
a. Internet
b. Wan o Lan
D. Materiales
a. Pizarra
b. Borrador
c. Marcadores

VI. REFERENCIAS BIBLIOGRÁFICAS


[1] M. Choi, R. Jin, and T.-S. Chung, “Document classification using word2vecand chi-square on apache spark,” inAdvances in
Computer Science andUbiquitous Computing, J. J. J. H. Park, Y. Pan, G. Yi, and V. Loia, [Link]: Springer Singapore,
2017, pp. 867–872.
[2] T. Oktay and A. Sayar, “Analyzing big security logs in cluster with apachespark,” inAdvances in Big Data, P. Angelov, Y.
Manolopoulos, L. Iliadis,A. Roy, and M. Vellasco, Eds. Cham: Springer International Publishing,2017, pp. 131–138.1
[3] Iguider W., Reforgiato Recupero D. (2017) Language Independent Sentiment Analysis of the Shukran Social Network Using
Apache Spark. In: Dragoni M., Solanki M., Blomqvist E. (eds) Semantic Web Challenges. SemWebEval 2017. Communications
in Computer and Information Science, vol 769. Springer, Cham
[4] G. Mogha, K. Ahlawat, and A. P. Singh, “Performance analysis of machinelearning techniques on big data using apache spark,”
inData Science andAnalytics, B. Panda, S. Sharma, and N. R. Roy, Eds. Singapore: SpringerSingapore, 2018, pp. 17–26.
[5] V. Korkhov, I. Gankevich, O. Iakushkin, D. Gushchanskiy, D. Khmel,A. Ivashchenko, A. Pyayt, S. Zobnin, and A. Loginov,
“Distributed dataprocessing on microcomputers with ascheduler and apache spark,” inCom-putational Science and Its
Applications – ICCSA 2017, O. Gervasi, B. Mur-gante, S. Misra, G. Borruso, C. M. Torre, A. M. A. Rocha, D. Taniar, B.
[Link], E. Stankova, and A. Cuzzocrea, Eds. Cham: Springer Interna-tional Publishing, 2017, pp. 387–398.
[6] N. El Hassane and H. Hajji, “Exploring apache spark data apis for water bigdata management,” inAdvanced Intelligent Systems
for Sustainable Devel-opment (AI2SD’2018), M. Ezziyyani, Ed. Cham: Springer InternationalPublishing, 2019, pp. 105–117.
[7] S. S., K. K.E., A. Balaji, and A. Sajith, “Performance comparison of apachespark and hadoop based large scale content based
recommender system,” inIntelligent Systems Technologies and Applications, S. M. Thampi, S. Mitra,J. Mukhopadhyay, K.-C.
Li, A. P. James, and S. Berretti, Eds. Cham:Springer International Publishing, 2018, pp. 66–73.
[8] K. Sid and M. Batouche, “Ensemble learning for large scale virtual screen-ing on apache spark,” inComputational Intelligence
and Its Applications,A. Amine, M. Mouhoub, O. Ait Mohamed, and B. Djebbar, Eds. Cham:Springer International Publishing,
2018, pp. 244–256.

287
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Introducción a Flutter Desarrollo Movil


con Aleteo
Raul Ernesto Perdomo Coreas
Universidad de El Salvador, Facultad Multidisciplinaria Oriental
San Miguel , El Salvador
raulep1990@[Link]

Obed Alberto Castro Orellana


Universidad de El Salvador, Facultad Multidisciplinaria Oriental
San Miguel , El Salvador
albcast26@[Link]

Luis José Iraheta Medrano


Universidad de El Salvador, Facultad Multidisciplinaria Oriental
San Miguel , El Salvador
liluisjose1@[Link]

El conocimiento de programación de aplicaciones para móviles ha avanzado de forma muy rápida, pasando de
ser un conocimiento más, a ser una necesitad debido a la rápida implantación y evolución de las plataformas
móviles. Esta rápida evolución crea incertidumbre sobre que tecnologías son las más adecuadas para la
programación de móviles. Una de las arquitecturas más implantada es la proporcionada por el sistema
Android de Google la cual mes a mes se renueva y permite a los desarrolladores optimizar su nivel de
eficiencia y eficacia en la implementación e frameworks y estructuras de desarrollo. Aplicaciones Nativas
facilitan su desarrollo e implementación tanto en el sistema operativo, como la plataforma de desarrollo que se
utilicen de manera que con el paso del tiempo Google tomo a bien implementar la implementacion de kit de
herramientas de interfaz de usuario portátil para crear hermosas aplicaciones nativas para dispositivos
móviles, web y de escritorio a partir de una sola base de código el codigo basado en Dart un lenguaje altamente
tipado al mismo nivel casi de python pero con una mayor precision en el desarrollo y actualmente con el
lanzamiento de su version estable oficial 1.0 hace poco en Diciembre del 2018. Flutter está destinado a ayudar
a los desarrolladores a construir experiencias de aplicaciones nativas y atractivas desde una base de código
única. Si bien los juegos de herramientas de interfaz de usuario multiplataforma no son nada nuevo, Flutter es
único en su forma de enfatizar la velocidad y el control del desarrollador por encima de todo. Los elementos de
la interfaz de usuario pueden aprovechar la representación de GPU, ya que Flutter utiliza el mismo motor de
gráficos Skia 2D que Google y Android. Además, Flutter compila de forma nativa a código ARM de 32 bits o
de 64 bits para Android y iOS.

Con el presente taller se pretende brindar diferentes conocimientos, tanto básicos como técnicos a los
diferentes participantes del mismo en áreas del desarrollo móvil como lo son las app las cuales con el paso del
tiempo han ido cobrando un gran auge en el mercado mundial de dispositivos electrónicos. Creemos que se
debería comenzar con los diseños porque es la parte mas versátil de flutter y que es mas optima de aplicar.
Implementar la lógica en Dart es fácil porque la sintaxis es casi como Java. De hecho, se puede verificar el
mismo codigo de desarrollo de un juego de X y 0 con lógica Java de Android, en Dart se requerían muy pocos
cambios de sintaxis pero mas optimos al momento de escritura debido a que la declaracion de funciones es mas
rapida.

Lo que se tiene planeado desarrollar son tres capas superpuestas, yendo en el siguiente orden:

288
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• Cuadrícula (2 líneas horizontales y dos verticales): las mismas diseñadas bajo código de filas y columnas
propias del lenguaje nativo de flutter que permitirán adaptar la lógica y centralización de la aplicación
mostrando la renderizacion en el momento, pero esto es un desarrollo rápido que toma alrededor de 50 lineas
de codigo que se hira explicando y detallando a lo largo del desarrollo del taller

• Campo (9 widgets de texto): Las celdas son MaterialButtons, porque los widgets de texto no tienen escuchas
táctiles, es necesario envolverlos también para poder hacer clic, El GestureDetector que se condificara ofrece
diferentes manejadores para cada estado táctil. Para mostrar comentarios visuales cuando el usuario toca la
vista, vamos a renderizar el fondo de la matriz que permitira mostrar el carácter X y 0 de gestos en función del
estado táctil de la partida. La clase de campo obtiene el índice que representa una celda en particular en la
pizarra y obtiene el símbolo que debe imprimirse, que está vacío, X u O. Al usar el índice, sabe qué bordes
debe dibujar.

• Inteligencia Artificial Basica: Un clásico del X y 0 es ser un juego simple que no requiere ninguna técnica
avanzada de inteligencia artificial para construir un jugador de computadora competente. El algoritmo
utilizado en la aplicación se llama el algoritmo Minimax que compone una de las reglas basicas de la IA para
la teoria de decisiones en modo de ejecucion de juegos. La forma en que la IA determina el siguiente
movimiento es mirar el tablero actual y luego jugar contra sí mismo en un tablero separado, intentando todos
los movimientos posibles hasta que el juego termine. Luego, puede determinar qué movimientos dan lugar a
victorias y qué movimientos generan pérdidas. Por supuesto, la IA luego escogerá uno de los movimientos que
potencialmente pueden ganar el juego.

En otras palabras, si asumimos que una victoria tiene una puntuación positiva, y una pérdida tiene una
puntuación negativa, la IA intenta maximizar su puntuación al tiempo que minimiza la puntuación del
jugador contrario, repetida para todos los movimientos. De ahí el nombre Minimax (o Maximin). Aunque la
placa es 3x3, usamos una matriz de 9 campos con índices 0–8 que simplificarán un poco la implementación. El
índice 0 representa la celda superior izquierda, el índice 1 representa la celda central superior y así
sucesivamente. La implementación se realiza mediante recursión. Arquitectura: Como muchos todos venimos
del mundo de Android donde prevalecen MVP (Model-View-Presenter) y arquitecturas similares, se decidío a
bien aplicarlo aquí para ver qué tan bien encaja. Aunque es una implementación MVP muy elemental, es una
de las que mantiene el código un poco mas limpio que los tradicionales. Los widgets (vistas) solo seran
responsables de dibujar y pasar eventos táctiles a los presentadores. Los presentadores (asistentes al taller)
manejaran estos eventos táctiles y contendran la lógica de negocios real. Los Modelos / Repositorios de flutter
y google seran los únicos responsables del manejo de los datos. Siempre es una buena idea separar la lógica
del negocio de la interfaz de usuario, reglas basicas en el diseño e Ingenieria de Software ya que ayuda con las
pruebas, mantiene el código limpio y hace que los desarrolladores se mantengan sanos. Destacando que el
código de UI en Flutter puede volverse muy grande con los widgets de anidamiento, por lo que puede
aumentar fácilmente la complejidad cognitiva si se combina con la lógica empresarial. Interfaz de usuario
Aquí es donde Flutter brilla más con respecto a otros frameworks. ¡Y brillará! Ya que se ha trabajado un poco
con React, Angular, marcos de UI similares y, por supuesto, con Android, pero en nuestra opinión, esta fue la
experiencia más agradable que se puede tener al hacer trabajos front-end. La razón principal fue la rapidez
con la que se actualizó la interfaz de usuario después de un cambio en el código gracias a la Hot-Reload propia
de flutter. En resumen, sí cualquier programador, estaba muy satisfecho con lo fácil que es crear una
aplicación usándola con otros frameworks, el taller les permitira de manera especial demostrar lo fácil que es
construir una interfaz de usuario; mezclando temas buenisimos y de implementacion basica como IA y IOT
que ayudan a disminuir mas la brecha de desarrollo.

Palabras clave: Flutter, Aleteo, Google, Android, IOS, App Nativas, Visual Studio Code, Android Studio.

289
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

290
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

291
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. OBJETIVOS
Objetivo General
• Desarrollar una aplicación móvil del tradicional juego de X y 0, con base en flutter que permitira
emplear ematicas de modelado movil en conjunto con el IOT y IA.

Objetivo Especifico
• Indicar la Importancia del Desarrollo de aplicaciones móviles en una nueva era de globalización
cuyo aprendizaje va de la mano de un entretenimiento sano.
• Producir un interés en los asistentes al taller por el desarrollo de nuevas tecnologías de
información que involucren la redefinición de la programacion movil agil y rapida mediante el
lenguaje DART, como una técnica moderna, tipada y potente que brinda seguridad y confianza en
el desarrollo de aplicaciones.
• Modelar una aplicación basada en modelado de propiedades de diseño como widgets con
ejecucion de intenciones basada en un juego de cultura popular y evaluador de intenciones
mediante IA.
• Brindar al usuario una experiencia amigable enfocada al diseño de aplicaciónes moviles nativas
con Visual Studio Code o Android Studio.

II. CONOCIMIENTOS PREVIOS


• Poseer conocimientos basicos de logica de programacion.
• Manejo Basico de la Programacion Orientada a Objetos o en programacion nativa para moviles.
• Conocimientos previos de programación o algún otro lenguaje previo como JS (ES6 o nuevos),
Java, C++ o C#, pues la sintaxis es muy parecida

III. METODOLOGÍA
Estrategia de asistencia: se brindara un numero considerable de ayudantes de taller que
permitirán solventar de manera precisa y en corto tiempo los inconvenientes que el usuario del taller
llegase a tener por algún retraso en la recepción de indicaciones. De la misma manera se asignaran
múltiples espacios a lo largo del desarrollo del taller para que los participantes puedan elaborar las
diferentes consultas, sugerencias o establecer sus inconvenientes para el desarrollo del taller; de manera
que nos permita como colaboradores brindarle la atención y asistencia pertinente para solventar todas y
cada una de sus inquietudes en el menor tiempo posible.
Facilitacion de Herramientas: se brindara un archivo en formato PDF a cada asistente al taller
en donde se anexaran las diferentes propiedades que se pueden usar en el proceso de elaboracion de la apk
de manera nativa que iran desde el modelado e implementacion de los widgets asi como las propiedades
que se han ido implementando de las clases Java que se estaran elaborando (el pdf no contendra el proceso
de elaboracion de la APK).
Estrategia Visual: se hara uso de proyecciones visuales elaboradas en prezi para un mayor
entendimiento didactico en cuanto a las propiedades del IDE o editor de codigo utilizado asi como el
desarrollo de los diferentes clases programables que el asistente ayudara a realizar. Estrategia de
Enseñanza: Permitir a los Asistentes al taller aportar los diferentes conocimientos que los mismos puedan
tener al respecto de la modelación en lenguaje DART o elaboración de métodos en las clases que se iran
implementando, dejándoles espacio para el aporte de conocimientos previos que ellos puedan tener en
cuanto al desarrollo móvil nativo.

292
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IV. CONTENIDO

Tema Descripción Colaborador Duración


“Explicacion del Explicar el Entorno Raul Ernesto -30 minutos 15
Entorno de de Desarrollo de Perdomo Coreas min. explicacion
Desarrollo” Visual Studio Code del ide y funciones
sus diferentes 15 min.
propiedades y Explicacion de la
asistentes; asi como emulacion y
el proceso de renderizado
emulacion y
renderizado de
flutter en la base de
los complementos
del mismo .
Esto es Obed Alberto -15 minutos en
“Elaboracion de la prácticamente un Castro Orellana explicacion y
cuadricula” elemento básico de desarrollo del
Flutter llamado codigo para la
widget con estado elaboracion
aparte de la sección -10 minutos para
inferior. El widget dudas agilidad de
se desarrollara procesos a los
mediante una asistentes y mas
matriz que
permitira definir
filas y columnas.
“Elaboracion de Se elaborara una Luis Jose Iraheta -15 minutos en
los Campos” clase que obtiene el Medrano explicacion y
índice que desarrollo del
representa una codigo para la
celda en particular elaboracion -10
en la celda trazada minutos para dudas
y obtiene el agilidad de
símbolo que debe procesos a los
imprimirse, que asistentes y mas
está vacío, X u O.
de la pantalla de
inicio tiene que
ver con la
seccion de
codigo que
permitira
definir las
figuras de tipo
texto ampliadas

293
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

para simular el
Xy0
“Implementacion Un clásico de Raul Ernesto -15 minutos en
de IA para toma los juegos Perdomo Coreas explicacion y
de decisiones” dinamicos es desarrollo del
un juego simple codigo para la
que no requiere elaboracion -10
ninguna técnica minutos para dudas
avanzada de agilidad de
inteligencia procesos a los
artificial para asistentes y mas
construir un
jugador de
computadora
competente. El
algoritmo
utilizado en la
aplicación se
llama el
algoritmo
Minimax que
permitira
determinar
mediante las
intenciones y
registro de
pulsaciones el
ganador de la
partida y poder
reiniciar la
misma.
“Implementacion Se creara una Obed Alberto -15 minutos en
de IOT” share activity Castro Orellana explicacion y
para poder desarrollo del
habilitar un codigo para la
boton que elaboracion -10
permita minutos para dudas
compartir en agilidad de
redes sociales procesos a los
informacion asistentes y mas
con respecto a
la aplicación
desarrollada en
el taller o
simplemente
para que otros
usuarios

294
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

conozcan el
tipo de
aplicación que
el asistente al
taller
desarrollo.

V. REQUISITOS
A. Equipo de cómputo
-Memoria RAM minimo de 2GB y maximo de 8GB para un proceso rapido de renderizado
-Puertos USB 2.0 o 3.0 -Monitores con Resolucion 1280x800 para un mejor aprovechamiento
visual.
-Procesador Intel Core i3 minimo para un desarrollo rapido con tecnologia para emulacion.
-Procesador Intel Core i5 maximo para un desarrollo optimo con tecnologia para emulacion.
-10 gb de espacio en Disco por los requerimientos de algunas funcionalidades extras que desee el
asistente tener.
B. Software
Pueden usarse cualquier Sistema Operativo
-Windows 7 / 8 / 10, en cualquier version se ejecuta
-Ubuntu 18.10 o cualquier distribución de linux en arquitectura de 32 o 64 bits.
-FLUTTER SDK (para el caso de windows donde se configura manualmente) y de la misma
manera en Ubuntu
-Visual Studio Code con complemento flutter configurado -Android Studio version 3.1.3 o
superior con plugins minimos desde la API 17 en adelante para obtener mejor acceso a las
herramientas de desarrollo. Si es necesario se puede enviar un instructivo con los procedimientos
para instalación.
C. Red
-Red Local LAN o WIFI de velocidad de 2 a 5 Mbps
D. Materiales
-Libreta y lapiceros para apuntes. -Proyector Multimedia. -Conector para proyector tipo HDMI.

VI. IMPLICACIONES FUTURAS


Campo Didáctico: Desarrollo de conocimientos amplios en el área de desarrollo de aplicaciones
nativas para plataforma Android e IOS que permitan obtener conocimientos específicos en el desarrollo de
aplicaciones nativas que podran ser usadas tanto para la comercialización y interactividad de usuarios. De
la misma manera permitirá despertar interés en el Usuario para el desarrollo de futuros proyectos móviles
que desee realizar.
Campo Laboral: El asistente podra aplicar diferentes tecnicas de modelado en dispositivos
moviles en widgets facilmente adaptables, y podra aplicar mas propiedades de control de intenciones en
losdiferentes proyectos que desee implementar para la plataforma android.
Campo Tecnico: Despues del desarrollo del taller el asistente podra observar las diferentes
plataformas en las cuales se puede apoyar para asistirse mas tecnicamente en el proceso de elaboracion de
aplicaciones moviles android en un futuro.

295
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VII. REFERENCIAS BIBLIOGRÁFICAS

[1] Google Docs, “Instalacion y funcionamiento de Flutter,” Google INC. London, vol. A247, pp. 529–551, Febrero 2019.
[2] StackOverflow, Desarrollo movil Flutter, Aprendizaje Dart, 2018, https:// [Link]/Download/[Link]
[3] IDıaz Pando, H. U. M. B. E. R. T. O. “Algoritmos metaheurısticos en el problema del particionado hardware/software de
sistemas embebidos(Ed. Rev.). Recuperado de [Link] dspace/bitstream/10045/34546/1/2013 Diaz-
Pando_etal_InteligenciaArtificial.pdf.

296
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Introducción a la Integración Bots de Telegram


con Arduino

Introduction to integration of telegram bots with


Arduino
Jose Daniel Amador Salas
Instituto Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
jdamadorsalas@[Link]

Magaly Segura Arias


Instituto Tecnológico de Costa Rica
Unidad de Electrónica
San Carlos, Alajuela, Costa Rica
magysegura2017@[Link]

Natalia Navarro Vega


Instituto Tecnológico de Costa Rica
Unidad de Electrónica
San Carlos, Alajuela, Costa Rica
navarroveganatalia@[Link]

Resumen — Actualmente, el mundo del Internet de las cosas (IoT) ha tenido un gran auge en muchos ámbitos de la vida cotidiana.
Tanto así, que su implementación no se limita solo a la interacción con otros componentes y dispositivos, sino que se ha expandido
hasta permitir su integración con otras tecnologías o aplicaciones existentes, como es el caso de los bots. Los bots son utilizados
actualmente como múltiples propósitos como: chatbots, bots informativos, bots transaccionales. Es por esto que la implementación
de estos con microcontroladores, como lo es arduino, puede resultar en una combinación realmente útil para aplicaciones en la
vida cotidiana.
Keywords: Telegram; Bots; Arduino; IoT; Microcontroladores, Internet de las cosas.

Abstract — Nowadays, Internet-Of-Things (IoT) world has had a boom in different areas of daily [Link] much so that its
implementation is not limited only to the interaction with other components and devices but it has expanded to allow its integration
with other technologies or existing applications such as "Bots". Bots are currently used for different purposes such as:
Chatbots,informatives bots, transactional bots. That is why the implementation of these microcontrollers,as is the arduino, could
result in useful applications for daily life.
Keywords: Telegram; Bots; Arduino; IoT; Microcontrollers, Internet of things.

I. OBJETIVOS
Objetivo general:
● Desarrollar ejercicios prácticos que ayuden a la comprensión e integración de los
microcontroladores con la plataforma de mensajería Telegram.
Objetivos específicos:
● Conocer los conceptos básicos de los microcontroladores y la programación de Bots.
● Realizar ejercicios prácticos que permitan la comprensión de la creación de Bots y su utilización.

297
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

● Integrar el funcionamiento de un Bot de Telegram para el control de las funciones de un


microcontrolador.

II. CONOCIMIENTOS PREVIOS


Se requiere que los asistentes, previo a la inscripción en dicho taller, tengan los conocimientos técnicos que se
detallan a continuación:
● Conocimiento básico de Programación en Python.
● Conocimientos básicos en utilización de Arduino.

III. METODOLOGÍA
El taller se desarrollará mediante clase magistral y con ejecución de ejercicios prácticos guiados por los instructores.
En lo que respecta a los ejercicios, estos se realizarán en grupos de dos o de tres personas (dependerá de la cantidad de
participantes). Permitiendo un máximo de 20 participantes para este taller, en el cual se aplicará la metodología aprender
haciendo, con tiempos regulados pero flexibles que les permita a los participantes alcanzar el desarrollo de los mismos a su
propio ritmo.
En el taller se realizará la preparación del entorno de trabajo. Una vez que este se encuentre listo, se procederá a
realizar una aplicación básica, a modo de ejemplo, que permita demostrar el uso de microcontroladores en la vida cotidiana.
Una vez terminado el ejercicio anterior, se procederá a realizar la creación de un Bot en la plataforma de Telegram y así
proceder al cierre del taller con la configuración de este para que permita interactuar con el microcontrolador y los
componentes conectados a él.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Presentar los conceptos
básicos relacionados con
Introducción Microcontroladores y la Daniel Amador 20 minutos.
plataforma de mensajería
Telegram.
Desarrollo de ejemplos Realizar ejercicios
básicos. introductorios a la Natalia Navarro 40 minutos.
utilización de Magaly Segura
microcontroladores.
Desarrollo de ejemplo Integrar el funcionamiento
avanzado. de Telegram con un Daniel Amador
microcontrolador Magaly Segura 1 hora.
permitiendo controlar Natalia Navarro
diferentes componentes
desde un Bot.
Total 2 horas.

V. REQUISITOS
A. Equipo de cómputo
● Disponibilidad de puertos USB libres.
● Procesador Core i5, similar o superior.
B. Software
● Sistema operativo Ubuntu 16.04 LTS o superior, o Windows 10.
● Arduino IDE.
● Python3.
● Pip3.

298
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

◦ Telepot.
◦ Serial / pySerial.
● Telegram Desktop o un web browser para acceder a su versión web.
● Virtualbox (En caso de presentarse problemas con permisos en las computadoras poder utilizar una máquina
virtual).
C. Red
● Conexión estable a internet desde las computadoras.
● Red WiFi para la conexión de los celulares de los participantes para que puedan configurar su cuenta de
Telegram y utilizar su smartphone para los ejercicios prácticos.

D. Materiales
● Pizarra.
● Marcadores.
● Proyector.
● Conexión eléctrica para dispositivos con clavijas Tipo A / B.

VI. IMPLICACIONES FUTURAS


Aunque el enfoque del taller está basado brindar un conocimientos básico sobre el uso de Microcontroladores y la
plataforma de mensajería Telegram, se debe tener en cuenta que ambas herramientas permiten ser implementadas en diversas
áreas del Internet de las Cosas y por ende, se puede sacar mucho provecho de ellas adecuandolas a nuestras necesidades.
Gracias a su filosofía, Telegram se ha vuelto popular entre los seguidores del software libre y en especial por los curiosos
que tratan día a día de implementar nuevos dispositivos automatizados en la vida cotidiana. Hay muchas ideas que se pueden
desarrollar con estas dos muy sencillas herramientas.

VII. REFERENCIAS BIBLIOGRÁFICAS


[1] Telepot Documentation. (2018). [Link] Retrieved 2 mayo 2019, from
[Link]
[2] Telegram Bot API. (2019). [Link]. Retrieved 2 mayo 2019, from
[Link]
[3] Arduino Documentation. (2019). [Link]. Retrieved 2 mayo 2019, from
[Link]

[4] How to create a Telegram bot using Python. (2017). [Link] Retrieved 2 mayo
2019, from [Link]
[2] Python Documentation. (2019). [Link]. Retrieved 2 mayo 2019, from
[Link]

299
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VIII. BIOGRAFÍAS

Jose Daniel Amador Salas nació en Alajuela, Costa Rica el 26 de agosto del 1998. Ingreso en el 2017
al Instituto Tecnológico de Costa Rica, universidad donde cursa su carrera en Ingeniería en
Computación.
Apasionado de la tecnología y la investigación, actualmente contribuye en el desarrollo de proyectos
de implementación de Internet of Things (IoT) en la comunidad de Computrónica, en proyectos de
aplicación de Data Science en la comunidad de Ciencia de lo Datos y proyectos de investigación para
la unidad de computación de esta universidad. Además, forma parte del capítulo estudiantil Computer
Society del IEEE.

Magaly Segura Arias nació en San Carlos, Costa Rica el 1 de febrero del 1998. Ingreso al Instituto
Tecnológico de Costa Rica en 2017, donde estudia Ingeniería Electrónica.
Joven que disfruta de la cultura y la ciencia, actualmente es tutora del curso de corriente continua, fue
parte de la asociación de su carrera con el puesto de secretaria de cultura. Además, de ser asistente de
la directora del DEVESA sede San Carlos también formando parte del grupo cultural almendros.

Natalia María Navarro Vega nació el 21 de setiembre de 1998 en la provincia de Alajuela, Costa Rica.
Cursó sus estudios de primaria en las escuelas Gonzalo Monge Bermúdez e Instituto Educativo
Bilingüe San Isidro, finalizó los estudios de secundaria en el Colegio Técnico Profesional de Pital
con un técnico medio en Informática en Soporte. En 2017, un año después, ingresó a esta misma
facultad en la carrera de ingeniería en electrónica.

Tutora de matemáticas para la Escuela de Ciencias Exactas y actualmente participa en un grupo de


investigación de la Campus Central en Cartago, es miembro de la Comunidad de Computrónica donde
trabaja con proyectos enfocados a uso de la tecnología en un ámbito agrícola.

300
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Análisis de Redes Sociales: Recolección y


visualización de datos en Twitter
James Edward Humberstone Morales
Centro de Modelaje Matemático CMMC3
Universidad Francisco Gavidia
San Salvador, El Salvador
jhumberstone@[Link]

Fernando José Alvarez Alens


Universidad Francisco Gavidia
San Salvador, El Salvador
[Link]@[Link]

Romeo Alexander Muñoz Rodríguez


Centro de Modelaje Matemático CMMC3
Universidad Francisco Gavidia
San Salvador, El Salvador
ramunoz@[Link]

Resumen — El Análisis de redes sociales (ARS) consiste en examinar estructuras de entidades: datos, objetos,
grupos de personas, etc; y sus interacciones dentro de una red centrándose en las relaciones que existen entre
ellas. Este taller establece una metodología, con base a minería de datos, para analizar la interacción de las
comunidades virtuales en la red social de Twitter, detallando las etapas de captura, procesamiento y
visualización de los datos, utilizando la API general y la Streaming API de Twitter. En el taller se realizarán
ejercicios prácticos para que 20 participantes comprendan la metodología y tengan un acercamiento a la
identificación de comunidades virtuales y los roles que juegan los actores principales.

Palabras clave; Análisis de Redes Sociales, Minería de datos, Análisis de Tweets

I. OBJETIVOS

Objetivo general

• Explicar una metodología para capturar, analizar y visualizar los datos, identificando las comunidades
virtuales que se generan en una red, a partir del análisis de medidas estadísticas.

Objetivos específicos
• Explicar a los 20 participantes la configuración del entorno de trabajo necesaria para implementar la
metodología.
• Capturar datos de Twitter empleando las API de Twitter: General y Streaming.
• Procesar los datos utilizando el lenguaje R.

301
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• Análisis de grafos con la herramienta Gephi para la identificación de comunidades virtuales.

II. CONOCIMIENTOS PREVIOS


Conocimiento sobre la terminología general de la red social Twitter: tweet, retweet, hashtag. El análisis de
la información gira entorno a analizar las diferentes interacciones que tienen los usuarios dentro de la red
social, por lo que es importante tener conocimiento de su funcionamiento.

III. METODOLOGÍA
Para el desarrollo del taller se tendrá como objeto de estudio un evento mediático que genere información
suficiente para poder obtener capturas de datos representativas con la cual se pueda demostrar el objetivo
del taller. Las partes que conforman la metodología son:
1. Preparación del entorno para la captura de datos: Es necesario conectarse a la red de datos de
Twitter, esto se logra creando credenciales de desarrollador. Se presenta una guía paso a paso de cómo
crear las credenciales para su uso en la captura de información en Rstudio y Gephi.
2. Recolección de datos de Twitter: Se explican los métodos para la captura de datos de Twitter con las
herramientas RStudio y Gephi, especificando los parámetros necesarios para realizar una captura.
3. Análisis y visualización de los datos con Gephi: Aplicación de medidas estadísticas de centralidad
que permitan descubrir información relevante sobre toda la información capturada (comunidades
virtuales, usuarios con rol de influyente, comunicador o intermediario) para una posterior visualización
de los datos en un grafo utilizando la herramienta Gephi.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Introducción al Análisis
Definición del marco de James Humberstone y 20 minutos
de las redes sociales:trabajo y preparación y Fernando Alvarez
caso práctico Twitter configuración de las
herramientas a utilizar
Captura de datos con Un ejercicio práctico James Humberstone y 35 minutos
Rstudio y Gephi donde se aplique el Fernando Alvarez
método de captura de
datos para ambas
herramientas
Visualización de la Creación de distintos Fernando Alvarez y 35 minutos
información con Gephi grafos que denotan el Romeo Muñoz
análisis de toda la
información capturada

V. REQUISITOS

A. Equipo de cómputo
Windows 7 o superior de 64 bits, 4GB de RAM o más, procesador Core i5 a 2.5GHz.

B. Software
Las especificaciones de software necesarias para el desarrollo del taller son:
• Java JRE – ([Link]
• Gephi 0.9.2 – ([Link] más plugin Twitter Streaming Importer dentro del
programa.
• Lenguaje R 3.6.0 ([Link]

302
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• Rstudio Desktop Open Source License 1.2.1335


([Link]

C. Red
Acceso a internet con conexión estable (Indispensable). Tener un acceso completo a los sitios web de las
herramientas Gephi y Rstudio, para la instalación de librerías y pluggins.

D. Materiales
• Es importante que todos los participantes tengan cuenta de Twitter.
• Base de datos: Se proporcionará archivo de datos de Gephi correspondiente a capturas de Twitter, para
el procesamiento de la información.
• Libreta para apuntes y lapiceros.

VI. IMPLICACIONES FUTURAS


Desarrollar la metodología para descubrir información relevante acerca de las interacciones de las
comunidades virtuales en la red social Twitter para poner en manifiesto los lazos de influencia y de
preferencia que existe en el mismo. Así poder utilizar esta metodología en aplicaciones tales como:
determinar redes de conocimiento, redes de acción social y/o políticas, etc.

VII. REFERENCIAS BIBLIOGRÁFICAS


[1] Dettmer, J., & Reyna, A. (2014). El análisis de las redes sociales y su aplicación al campo de las Ciencias Sociales. IV Encuentro
Latinoamericano de Metodología de las Ciencias Sociales, 27 al 29 de agosto de 2014, Heredia, Costa Rica. Recuperado de
[Link]
[2] Bastian, M., Heymann, S., & Jacomy, M. (2009). Gephi: An Open Source Software for Exploring and Manipulating Networks.
International AAAI Conference on Web and Social Media. Recuperado de
[Link]

303
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Introducción al manejo de sistemas de control


de versiones con Git y Github
José Pablo Calvo Suárez
Universidad Nacional, Costa Rica
[Link]@[Link]

Resumen — Los sistemas de control de versiones (VCS por sus siglas en inglés) se utilizan ampliamente en
diversos proyectos de desarrollo de software en la actualidad, debido a su flexibilidad, escalabilidad, potencia y
facilidad de uso. En la actualidad, tanto proyectos de software libre como propietario se administran a través
de estas herramientas para mantener diversos tipos de aplicaciones, desde pequeños scripts de automatización
y páginas web, hasta proyectos de Internet de las Cosas, Ciencias de Datos, Inteligencia Artificial, entre otros.
Por lo tanto, es muy importante para los programadores aprender a interactuar con estos sistemas.

Este taller proporciona una introducción al manejo de un sistema de control de versiones utilizando las
herramientas Git y Github, de manera que los participantes puedan aprender terminología básica en el manejo
de ambas plataformas y el flujo de trabajo típico que conlleva su utilización.

Palabras clave; git; github; sistemas de control de versiones; software de código abierto.

I. OBJETIVOS
Objetivo General
Desarrollar habilidades básicas para la configuración y el manejo de un sistema de control de
versiones para fomentar su utilización en diversos proyectos de desarrollo de software.

Objetivos Específicos
▪ Identificar los elementos fundamentales de un sistema de control de versiones distribuido.
▪ Comprender las tareas frecuentes que se llevan a cabo para administrar de manera correcta
un repositorio de datos.
▪ Realizar tareas de creación, configuración, actualización y administración de un
repositorio basado en Git.
▪ Fomentar la colaboración en el desarrollo de un proyecto de software utilizando
repositorios en la nube.

II. CONOCIMIENTOS PREVIOS


El taller no requiere de ningún conocimiento técnico previo. Sin embargo, se recomienda que los
participantes tengan conocimiento en algún lenguaje de programación de alto nivel con el fin de sacarle el
mayor provecho al taller. No existe un número limitado de participantes para este taller. La cantidad de
participantes dependerá del espacio físico disponible asegurando que cada participante cuente con acceso a
una computadora personal o portátil.
III. METODOLOGÍA
▪ Motivar a los estudiantes sobre la importancia del uso de los sistemas de control de
versiones como herramientas que potencian la colaboración mediante un pequeño
conversatorio.
▪ Utilización de contenidos visuales con ilustraciones para explicar los conceptos
relacionados con el manejo de Git y Github

304
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

▪ Se desarrollarán actividades paso a paso para que los participantes apliquen los conceptos
durante el taller, mediante el uso de la computadora.
▪ Los participantes harán uso de la línea de comandos y la web, desde donde se ejecutarán
comandos con las tareas de configuración básicas de un repositorio en Git y Github, por
lo que requerirá la interacción y participación de los asistentes en todo momento.
IV. CONTENIDO

Tema Descripción Colaborador Duración


¿Qué es Git? Conceptos básicos José Pablo Calvo S. 10 minutos
de un VCS
Elementos de Terminología José Pablo Calvo S. 25 minutos
configuración de básica: Snapshot,
Git Working Directory,
Staging Area,
Commit, Branch,
Push, Fetch, Merge,
Clone
Creación y Ejecución de José Pablo Calvo S. 40 minutos
confiuración de un comandos para
repositorio en Git crear un repositorio,
agregar archivos,
actualizar y
remover elementos,
sincronizar
repositorios
remotos.
Flujo de trabajo en Creación de un José Pablo Calvo S. 40 minutos
Github usuario en Github.
Crear repositorios,
agregar
colaboradores y
especificar
características del
repositorio. Fork y
Pull Requests.
Integración de un Conexión de un José Pablo Calvo S. 25 minutos
IDE (Visual IDE con la cuenta
Studio Code) con de usuario de
Github Github,
sincronización de
proyectos y
actualizaciones de
código.

V. REQUISITOS
A. Equipo de cómputo
El taller no requiere de gran poder de cómputo. Se recomienda que la PC a utilizar tenga mínimo
2GB de memoria RAM, 4GB recomendada.

305
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

B. Software
▪ Sistema Operativo Windows (versión 7 o superior)
▪ Git para Windows - [Link]
▪ Visual Studio Code (versión 1.33 o superior) - [Link]
▪ Preferiblemente el navegador Firefox instalado
▪ Lector de archivos en formato PDF para que puedan seguir las instrucciones del taller
C. Red
▪ El taller requiere que los participantes tengan acceso a Internet, específicamente al sitio
web [Link]

D. Materiales
▪ Los materiales se pueden descargar desde el siguiente enlace:
[Link]

VI. IMPLICACIONES FUTURAS


La experiencia de este taller permitirá fomentar el uso de plataformas de colaboración durante el
desarrollo de código fuente para diversos tipos de proyectos. Se espera que los estudiantes que participen del
taller apliquen las habilidades aprendidas durante el resto de su carrera y lo puedan compartir con sus
compañeros durante el desarrollo de tareas en los cursos de programación, ingeniería de sistemas u otros
cursos relacionados con impementación de soluciones de inteligencia artificial, IoT, ciencias de datos, etc.
De igual manera, otros investigadores y/o académicos podrán utilizar plataformas gratuitas en línea de
manera que puedan compartir sus proyectos de una manera más sencilla y de manera global. Finalmente,
cualquier profesional que se incorpore a la industria para trabajar en proyectos de desarrollo tendrán los
conceptos básicos que les permitirá adaptarse mas rápidamente en el ambiente de trabajo.

VII. REFERENCIAS BIBLIOGRÁFICAS


[1] S. Chacon and B. Straub, Pro Git, 2nd ed. Berkeley, CA: Apress, 2014.
[2] W. Gajda, Git recipes, 1st ed. New York, NY: Apress, 2013.
[3] R. Somasundaram, Git: Version Control for Everyone, 1st ed. Olton: Packt Publishing Limited, 2013.

306
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Introducción a la programación de Aplicaciones


Móviles con Flutter

Introduction to Mobile Applications Programming


with Flutter

Jafeth Vásquez Herrera


Escuela de Computación
Instituto Tecnológico de Costa Rica
San Carlos, Costa Rica
jvsquez19@[Link]

Steven Peraza Porras


Escuela de Computación
Instituto Tecnológico de Costa Rica
San Carlos, Costa Rica
sjpp8448@[Link]

Resumen — Este documento es una propuesta de taller introductorio a la programación de aplicaciones moviles multiplataforma
con el framework Flutter. Flutter es un framework de gran relevancia para el desarrollo de aplicaciones moviles ya que permite
crear aplicaciones que funcionan perfectamente en Android y iOS con un solo código fuente. La importancia de conocer sobre
esta tecnología radica en que le permite a los desarrolladores crear aplicaciones con un desempeño igual al nativo sin tener que
desarrollar un código para la aplicación en cada sistema operativo. Se diferencia de los otros frameworks en que se compila a
binario según el procesador del dispositivo y es el único framework multiplataforma que ofrece un desempeño igual al de las
aplicaciones nativas.

Palabras clave: Flutter; Aplicaciones Moviles; Taller; Multiplataforma;


Abstract — This document is a proposal of an introductory workshop to the programming of mobile cross-platform applications
with the Flutter framework. Flutter is a framework of great relevance for the development of mobile applications since it allows
to create applications that work perfectly on Android and iOS with a single codebase. The importance of knowing about this
technology is that it allows developers to create applications with the same performance as the native without having to develop a
code for the application in each operating system. It differs from other frameworks in that it is compiled into binary according to
the processor of the device and is the only cross-platform framework that offers performance equal to that of native applications.

Keywords; Flutter; Mobile Applications; Workshop; Cross-Platform;

I. OBJETIVOS
Objetivo general: Proveer a los participantes nociones básicas sobre el framework para que puedan comenzar a
utilizarlo y crear aplicaciones aplicaciones.
Objetivos específicos:
• Introducir a los participantes en los aspectos esenciales del lenguaje Dart.
• Explicar como interactúan los diferentes elementos llamados widgets dentro de una aplicación.
• Explicar la estructura de un proyecto en Flutter.
• Integrar estos conocimientos en un ejercicio práctico.

307
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

II. CONOCIMIENTOS PREVIOS


• Conocimientos básicos sobre programación.
• Conocimientos sobre programación orientada a objetos.
• Conocimientos en Dart preferible pero no indispensable.

III. METODOLOGÍA
El taller contempla actividades prácticas a medida que se expondrán los contenidos tratados. Sobre los conceptos
que se irán explicando se irán demostrando de manera práctica para que los participantes puedan interactuar con ellos. La
dinámica será que los participantes aprendan haciendo y que puedan ver los conocimientos plasmados en los ejercicios.

IV. CONTENIDO

Tema Descripción Colaborador Duración

Saludo e Introducción Se saludará a los Jafeth Vásquez 10 minutos


participantes y les dará
una introducción sobre
la dinámica del taller y
lo que aprenderan
Creación de un Se creará un proyecto y Steven Peraza 10 minutos
proyecto. se explicará sobre la
estructura.
Probar el código Al crear un proyecto Jafeth Vásquez 10 minutos
generado en el este genera un código
dispositivo o emulador. inicial. La actividad
será correrlo y explicar
rápidamente lo que
hace.
Stateless Widget Se creara un stateless Steven Peraza 15 minutos
widget para mostrar
algo estático en la
pantalla.
StateFul Widget Se creara un stateful Jafeth Vásquez 15 minutos
widget que le permitirá
a los participantes
añadir funcionalidad a
la aplicación.
ListView Se creará un ListView Steven Peraza 15 minutos
para mostrar múltiples
datos en pantalla.

308
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Añadir datos al Se creara un Jafeth Vásquez 10 minutos


listView procedimiento para que
puedan añadirle más
filas al listView
Conclusion y despedida Se les darán Steven Peraza 10 minutos
conclusiones finales, se Jafeth Vásquez
les pedirá
retroalimentación y los
despediremos del taller

V. REQUISITOS
A. Equipo de cómputo

• 2 GB de Ram (8 GB Recomendado)
• 5 GB de espacio en disco (10 GB recomendado)
• Resolución minima 1280 x 800

B. Software
• Android Studio 3.0 o superior
• Plugin de Flutter para Android Studio v35.0 o superior
• Plugin de Dart para Android Studio v183.6370 o superior.
• Android SDK API 28 o superior
• Flutter SDK 1.0 stable o superior

C. Red
Para es necesario que los equipos tengan conexión a internet.
D. Materiales
Es preferible que los participantes traigan un dispositivo android con cable usb para que puedan compilar la
aplicación en sus dispositivos.
VI. IMPLICACIONES FUTURAS
Tras el taller los participantes habrán adquirido nuevos conocimientos que le serán muy útiles si desean desarrollar
aplicaciones moviles. Tendrán una noción general del framework con el que van a trabajar y estarán listos para ahondar más
en la tecnología por su cuenta a futuro.
VII.

309
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VIII. REFERENCIAS BIBLIOGRÁFICAS


[1]E. Seidel, Flutter. Lecture, Strange Loop. 2017.
[2]"Flutter Documentation", [Link], 2019. [Online]. Available: [Link] [Accessed: 15- May-
2019].
[3]V. Leler, "What’s Revolutionary about Flutter", 2018.
[4]V. Leler, "Why Flutter Uses Dart", 2018.
[5]P. Szklarska, "Flutter — 5 reasons why you may love it", 2018.
[6]D. Vestergaard, "Reflectly — From React Native to Flutter", 2018.
[7]V. Nascimento, "The different approaches to cross platform apps", 2018.
[8]M. Carroll, "What even are Flutter widgets?", 2018.
[9]Norbert, "Flutter, what are Widgets, RenderObjects and Elements?", 2018.
[10]A. Sullivan, "Examining performance differences between Native, Flutter, and React Native mobile
development.", 2018.

310
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Analizando Metadatos de Archivos Públicos y


Privados con FOCA
Néstor Antonio Traña Obando
Universidad Nacional de Ingeniería - Nicaragua
[Link]@[Link]

Engels Josué Delgado Torrez


Universidad Nacional de Ingeniería – Nicaragua
engelsdelgado2@[Link]

Resumen — El taller se centra en el análisis de metadatos de archivos públicos alojados en sitios web, los cuales
pueden brindar información privada de personas e instituciones. También se pretende concientizar a los
participantes sobre el correcto uso y manejo de los metadatos para que no exista fuga de información por medio
de los documentos públicos y privados que pueden estar alojados en servidores web.

Palabras clave; metadatos; seguridad informatica; foca.

I. OBJETIVOS
General:
Concientizar a los participantes de la importancia de la eliminación de los metadatos de los
archivos públicos y privados que estarán expuestos en internet.
Específicos:
Aprender de manera rápida el uso de la herramienta FOCA para la búsqueda, descarga y análisis
de los metadatos de archivos digitales.
Brindar buenas practicas para el borrado correcto de los metadatos en los archivos que serán
expuesto en el internet de manera pública.

II. CONOCIMIENTOS PREVIOS


El participante deberá de tener conocimientos básicos en el uso y manejo de una computadora.

III. METODOLOGÍA
1.- Conferencia: Se debe sentar las bases conceptuales de metadatos, su utilidad y los riesgos
asociados al mal uso de los mismos.
2.- Practica: Se llevará a cabo la selección de un objetivo, al cual se le realizará un análisis de los
metadatos encontrados en los archivos públicos alojados en su sitio web.
IV. CONTENIDO

Tema Descripción Colaborador Duración

Introducción a Se explica que son


Metadatos los metadatos y la Néstor Traña 20 min
importancia del uso

311
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

en los archivos
digitales.
Configuración de la
FOCA herramienta FOCA Engels Delgado 100 min
para la extracción y
análisis de archivos
digitales

V. REQUISITOS
A. Equipo de cómputo
El nivel de hardaware requerido para la realización de este taller lo cumple cualquier equipo de
cómputo que tenga características mínimas:
Microsoft Windows 64 bits (Windos 7 / Windows 8 / Windows 10)
Procesador de 2.6 GHz
Memoria Ram de 4 GB
B. Software
FOCA (Fingerprinting Organizations with Collected Archives)
[Link] framework 4.7.1
Ofimatica (Microsoft Office)
C. Red
Acceso a internet.
D. Materiales
Un proyector o data show para los colaboradores del taller.
Pizarra
Marcadores
PC.

VI. IMPLICACIONES FUTURAS


Los participantes de este taller podrán concientizar a cerca del correcto uso de los metadatos en los
archivos digitales, así como promover políticas internas en sus instituciones para el borrado de metadatos de
los archivos a alojar de manera pública en los servidores web.

VII. REFERENCIAS BIBLIOGRÁFICAS


ELEVENPATHS. (5 DE 10 DE 2017). [Link]. OBTENIDO DE
HTTPS://[Link]/ES/LABSTOOLS/FOCA-2/[Link]

312
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Taller: Introducción a la Programación con Arduino


Enseñar programación de forma intuitiva e interactiva

Workshop: Computer Programming Introduction with


Arduino
To teach computer programming in an intuitive an interactive way

Esteban Arias-Méndez
Escuela de Computación
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
[Link]@[Link]

Resumen — Hoy en día, aprender programación es una de las habilidades más importantes para el futuro [4]. Acá brindamos ideas
sobre la experiencia de enseñar programación de una forma diferente al método de clase tradicional usando herramientas más
interactivas para atraer mejor la atención e interacción sobre los conceptos de. Esto lo alcanzamos con el uso de la plataforma
Arduino. Durante este proceso, hemos aplicado diferentes herramientas para probar la mejor manera en que los estudiantes
obtengan las habilidades de programación de forma natural [3]. Este taller busca brindar una muestra de una clase introductoria
a la programación en la cual al cabo de 2 horas un estudiante habrá comprendido qué es programar una computadora.

Keywords: programación de computadoras; código-abierto; hardware-abierto; Sistema Operativo Linux; plataforma Arduino.
Abstract — Nowadays, learn computer programming is one of the most important skills for the future [4]. Here we provide some
insights about the experience of teaching programming on a different way of the traditional class using some more interactive tools
to attract better attention and interaction about the programming concepts. We achieve this with the use of the Arduino platform.
During this process, we have applied different tools to test the better way for the students to get the programming skills in a natural
way [3]. This workshop aims to show an introductory computer programming class in which after 2 hours a student will understand
what is to program a computer.

Keywords: computer programming; open-source; open-hardware; Linux Operating System; Arduino platform.

I. OBJETIVOS
Comprender de forma interactiva e intuitiva el proceso de programar computadoras.

II. CONOCIMIENTOS PREVIOS


No es necesario conocimientos previos sobre programación o uso de computadoras. Solo se requiere saber leer y escribir.
El uso básico de una computadora es deseable, según el grado de avance que quiera desearse.

III. METODOLOGÍA

Constructivismo: un desafío decisivo en la educación es la búsqueda de caminos alternativos, de opciones para la


construcción de un mundo solidario, para ello es vital un cambio de conciencia, que procure procesos creativos. El
conocimiento teórico es el primer referente de un individuo en proceso de formación. El aprendizaje es un cambio persistente
en el desempeño humano o en el desempeño potencial que debe producirse como resultado de la experiencia del aprendiz y su
interacción con el mundo.


313
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Con respecto al constructivismo, actualmente la metodología educativa busca una aplicación de este, un aprender a
aprender, donde las y los discentes reflexionen y analicen sobre sus propias experiencias en el proceso de enseñanza-
aprendizaje. Las habilidades cognitivas son entendidas como operaciones y procedimientos que puede usar el estudiante para
adquirir, retener y recuperar diferentes tipos de conocimientos y ejecución:
“[…] suponen del estudiante capacidades de representación (lectura, imágenes, habla, escritura y dibujo), capacidades de selección
(atención e intención) y capacidades de autodirección (auto programación y autocontrol)” [2].
Del constructivismo piagetiano emanan tres directrices para la educación [1].
i. Utilizar métodos que apelen a la actividad mental espontánea.
ii. Quien educa es un acompañante, quien minimiza el ejercicio de la autoridad, estimulando la iniciativa, el juego,
la experimentación, el razonamiento y la colaboración social.
iii. La vida social entre los niños y las niñas presenta una extensa oportunidad de cooperación, incluyendo el conflicto
cognitivo, en situaciones que promuevan el deseo de coordinar las acciones con otras personas.

IV. CONTENIDO

Tema Descripción Duración


¿Qué es una computadora y Descripción de la forma general de trabajo de una 10 minutos
sus partes? computadora, sus partes principales y la interacción entre
estos: procesador, memoria principal, sistema de archivos
y dispositivos de entrada y salida

¿Qué es Arduino? Se compara el trabajo de una computadora con la 15 minutos


plataforma Arduino y se relaciona con sus partes. Se
explica cada uno de los componentes del Arduino y la
diferencia entre procesador y microcontrolador

Electricidad Se introduce el concepto de electricidad 10 minutos

Conexión del Arduino a la Se procede a conectar el equipo y correr un programa de 10 minutos


computadora y prueba de prueba llamado “Blink” para probar la comunicación entre
funcionamiento los dispositivos

Luces LED y sensores Se presentan de forma general los componentes principales 10 minutos
de trabajo como luces LED y sensores para Arduino. Cada
participante identifica su propio equipo.

Prueba de iluminación Se conectan luces al equipo Arduino mediante un circuito 10 minutos


simple. Se cambia luego al puerto 13 del programa “Blink”

Introducción a la Se presenta y explica el código “Blink” utilizado 15 minutos


Programación
Modificar código Se motiva a los participantes a hacer cambios en el código 10 minutos
tales como los tiempos de pausa para ver los efectos en las
luces. Acá los estudiantes observan el efecto directo
entre el código del programa y su efecto en el equipo.

Reto de programación Una vez que el estudiante ha comprendido la noción de 20 minutos


programación se invita a los estudiantes a realizar un
ejercicio como reto: programar un semáforo vehicular de 3
colores o similar.

Cierre y Conclusiones Se revisan los ejercicios resueltos por los estudiantes y se 10 minutos
les motiva a hacer cambios por su cuenta y experimentar
con pruebas.
Se hace referencia a material adicional de consulta sobre
Arduino, código y ejercicios adicionales.


314
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. REQUISITOS
A. Equipo de cómputo
Computadoras portátiles, de escritorio o tipo RaspberryPi con sistema operativo Linux preferiblemente o bien Windows o
MacOS, con al menos 1 puerto USB disponible.
B. Software
Plataforma de programación gratuita de Arduino, la cual se descarga de forma gratuita del sitio [Link] De forma
opcional se puede accesar mediante internet a la plataforma ArduinoBlocks en línea en: [Link]
C. Red
Se requerirá acceso a Internet solo en caso de que se desee hacer uso de la herramienta ArduinoBlocks para mostrar la
programación en bloques y en español.
D. Materiales
Arduinos tipo UNO o similar, cable USB, luces LED, cables tipo jumpers para Arduino; en caso de una sesión extendida
se puede hacer uso de sensores de luz, temperatura, proximidad, etc.

VI. IMPLICACIONES FUTURAS


Se busca estimular el aprendizaje de la programación en toda la población mediante el uso de equipo de bajo costo y una
forma más interactiva de aprendizaje.

VII. REFERENCIAS BIBLIOGRÁFICAS


[1] L. E. Flores-Davis. “El placer de aprender,” Revista Electrónica Educare, vol. XIV, pp. 41-47, noviembre, 2010.
[2] L. Arroyo-Chinchilla, P. Huertas-Castro, C. Peirano-Cistema y M. Pérez-Calvo. “Las habilidades del pensamiento y el aprendizaje significativo en
matemática de escolares de quinto grado en Costa Rica,” Revista Electrónica Actualidades Investigativas en Educación, vol. 14, no. 2, pp. 1-30, mayo-
agosto, 2014.
[3] E. Arias-Méndez y G. Pereira-Carpio. “Programación: La Nueva Alfabetización. Introduciendo a la Programación a niñas y niños en el Parque La
Libertad,” Trama, revista de ciencias sociales y humanidades, vol. 6, no.2, pp. 26-39, agosto-diciembre, 2017.
[4] S. Dasgupta y M. Resnick. “Engaging novices in programming, experimenting and learning with data,”ACM Inroads, vol.5, no.4, pp. 72-75, December,
2014.

VIII. BIOGRAFÍA

Esteban Arias-Méndez es Ingeniero en Computación y profesor de la Escuela de Computación del Instituto Tecnológico de Costa
Rica (TEC Costa Rica). Ha dado cursos sobre Introducción a la Programación, Fundamentos de Organización de Computadoras,
Arquitectura de Computadoras, Sistemas Operativos, Compiladores e Intérpretes, Estructuras de Datos, Análisis de Algoritmos,
Computación y Sociedad y Biología Molecular Computacional. Desde 2014 utiliza la plataforma Arduino en algunos de sus cursos,
desde el 2015 brinda cursos de Arduino abiertos a la comunidad. En 2016 colaboró enseñando programación a niños en el Parque
La Libertad, adscrito al Ministerio de Cultura Juventud y Deportes de Costa Rica, y desde entonces en otros centros educativos
brindando visitas y realizando talleres de Introducción a la Programación usando Arduino de forma voluntaria con el apoyo de
estudiantes del TEC Costa Rica, usando programas de código abierto y de hardware abierto como Arduino. Recientemente apoyó
el Proyecto Niñas en Tecnología del Parque La Libertad con becas por parte de la Embajada de Canadá y de la empresa EMERSON.
Coordina el Proyecto: Programación La Nueva Alfabetización con la colaboración de estudiantes voluntarios del TEC Costa Rica.


315
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Pre-Entrenamiento de modelos de datos


para el reconocimiento de objetos mediante
Visión Artificial

Pre-training of data models to recognize


objects through artificial vision

Leiver Jimenez Ureña


Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
[Link]@[Link]

Raquel Miranda Pérez


Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
[Link]@[Link]

316
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Resumen: En la actualidad, la inteligencia artificial ha tomado gran importancia en áreas


como lo son la interacción personalizada, automatización de procesos, diagnóstico médico,
entre otros campos. Realizar reconocimiento de objetos es algo que puede ayudar en múltiples
problemas, sin embargo, desarrollar este tipo de redes se puede volver un poco complicado,
más si no se sabe por dónde empezar. Este taller tiene como fin generar el conocimiento
necesario para comprender qué es Machine Learning (ML) así como la utilización de YOLO y
conocer sobre otras herramientas que permitirán desarrollar modelos que pueden ser
implementados fácilmente en el entorno que nos rodea.
Keywords: Machine Learning, YOLO, darknet

Abstract: Currently, artificial intelligence has taken great importance in areas such as
personalized interaction, process automation, medical diagnosis, among other fields.
Performing object recognition is something that can help in multiple problems, however,
developing these types of networks can be a bit tricky, especially if you do not know where to
start. This workshop aims to generate the necessary knowledge to understand what Machine
Learning (ML) is as well as the use of YOLO and learn about other tools that will allow
developing models that can be easily implemented in the environment that surrounds us.
Keywords: Machine Learning, YOLO, darknet

[Link]
Objetivo General:
• Generar conocimiento básico sobre el desarrollo de modelos de datos en
Machine Learning.
Objetivos Específicos:
• Explicar qué es Machine Learning y YOLO, así como otras herramientas
existentes para el desarrollo de modelos de datos.
• Ilustrar sobre el proceso de entrenamiento de un modelo de dato.
• Emplear algunas herramientas que permiten la preparación de los datos a
entrenar.
• Analizar el modelo de datos entrenado.

[Link] Previos
Se requiere que los asistentes, previo a la inscripción en dicho taller, tengan los
conocimientos técnicos que se detallan a continuación:
● Conocimiento básico de Programación en Python.
● Conocimiento básico en utilización de distribuciones del sistema
operativo Linux

[Link]ía
El taller se realizará mediante una clase magistral, con exposición gráfica y verbal de que
es Machine Learning, algunas herramientas, la funcionalidad de las mismas y cómo
emprender en el entrenamiento de un modelo de datos, se realizarán ejercicios prácticos
para que los asistentes comprendan cómo preparar los datos a entrenar, esta modalidad
será individual permitiendo a cada participante elaborar su propio mini set de
entrenamiento, se atenderá una cantidad máxima de 20 participantes.
Esta metodología cumple un rol didáctico, donde se abordarán los contenidos mediante
la exposición de los mismos, seguido de la puesta en práctica de las herramientas que
permiten limpiar los datos a entrenar, una vez que estos estén listos, se procederá a

317
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

explicar cómo entrenar el modelo con el dataset generado y por medio de una máquina
virtual los participantes podrán correr un modelo previamente entrenado.

IV. Contenidos

Tema Descripción Colaborador Duración

Introducción Presentación de los conceptos básicos Leiver 10 min


relacionados con Machine Learning. Jimenez

Desarrollo del Presentación de algunas herramientas Leiver 30 min


tema que hacen uso de ML, enfatizar en Jimenez
YOLO, framework con el que se Raquel
mostrarán los resultados finales. Miranda

Ejercicios Realizar algunos ejercicios prácticos Leiver 30 min


prácticos con herramientas de preparación de Jimenez
datos a entrenar. Raquel
Miranda

Proceso de Exponer cómo funciona el proceso de Raquel 25 min


entrenamiento entrenamiento de YOLO. Miranda

Demostración de Presentación de pruebas con un Raquel 25 min


resultados finales modelo de datos previamente Miranda
entrenado, en tiempo real y paso de Leiver
archivo por comando en una máquina Jimenez
virtual.

Total 2 horas

V. Requisitos

1. Equipo de Cómputo
1. Disponibilidad de un puerto USB libres
2. Procesador Intel Core i5 o superior (o su equivalente en AMD).
3. Memoria RAM 8GB o superior
4. Disco duro disponible 30GB o superior
2. Software
1. Windows 10
2. VMware WorkStation
3. Navegador Chrome o Mozilla Firefox
3. Red
1. Conexión estable a internet
4. Materiales
1. Proyector
2. Pizarra
3. Marcadores

318
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VI. Implicaciones Futuras

Machine Learning es una rama de la Inteligencia Artificial que ha ido creciendo, las
utilidades que ésta provee van desde usos en el sector salud, agrícola, académico,
seguridad, entre otros.
Es por ello que emprender en el mundo de la Inteligencia Artificial proveerá soluciones
innovadoras y adaptables a las necesidades existentes. El taller permitirá a los
participantes, obtener bases de qué es Machine Learning y el proceso de desarrollo de un
modelo de datos, tomando como punto de referencia la importancia de la preparación de
los datos, es decir, el proceso de pre-entrenamiento, que se rige por una rigurosa
preparación de los datos para garantizar la calidad de los resultados, donde al demostrar
cómo se seleccionan y limpian los datos, los asistentes con dedicación podrán
implementar lo aprendido en herramientas de aprendizaje automático.

VII. Referencias Bibliográficas

[1] J. Redmon and A. Farhadi, “Yolov3: An incremental improvement,” arXiv, 2018.


from [Link]
[2] ¿Qué es machine learning? [Guía completa para principiantes]. Adex AI. 2019.
from [Link]
[2[3] Python Documentation. (2019). [Link]. Retrieved 2 mayo 2019, from
[Link]

319
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

[Link]ías

Raquel Miranda Pérez nació en Alajuela, Costa


Rica el 18 de enero de 1996. Ingreso en el 2017
al Tecnológico de Costa Rica, universidad donde
cursa su carrera en Ingeniería en Computación.

Proactiva, intereses se centran en investigación


y desarrollo de proyectos de Inteligencia
Artificial, Machine Learning y Deep Learning,
actualmente ejerce el puesto de vice-chair del
capítulo estudiantil Computer Society de la
IEEE, realizó pasantía en la Universidad Estatal
de Carolina del Norte que tenía como objetivo
la implementación de un sistema capaz de
detectar agentes físicos en paneles fotovoltaicos
mediante el uso de visión artificial y drones.

Leiver Adrián Jiménez Ureña nació en San José,


Costa Rica el 18 de septiembre de 1995.
Actualmente estudia Ingeniería en Computación
en el Tecnológico de Costa Rica, en San Carlos,
Alajuela, Costa Rica.

Actualmente desarrolla proyectos con


microcontroladores y tecnología IoT en una
comunidad llamada Computrónica. Es
colaborador en un proyecto de investigación
sobre Geomática utilizando ToroDB aplicada al
Turismo. Asimismo ejerce el puesto de chair del
capítulo Computer Society de la IEEE, además
realiza investigaciones en proyectos relacionados
con drones y Computer Graphics de forma
extracurricular..

320
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Fundamentos De Modelado Para Prototipos Para


Impresión En 3D

Fundamentals of Modeling for Prototypes for 3D


Printing

Danier Cubillo Morales


Instituto Tecnológico de Costa Rica
Unidad de Producción Industrial
San Carlos, Alajuela, Costa Rica
danier83@[Link]

Resumen – En la actualidad ya no se requiere buscar profesionales especializados para plasmar físicamente un prototipo. El
crecimiento exponencial de nuevas tecnologías, así como de nuevas tendencias como los llamados MAKER, han dejado en claro
que el mundo está cambiando a una nueva era de innovación y creación. Por lo que es primordial conocer o adquirir los
conocimientos necesarios para lograr un desenvolvimiento en estos campos. Es por eso que el manejo de algunas herramientas de
diseño de fácil acceso, puede brindar un plus como mejores y futuros especialistas en el campo del modelado 3D
Keywords: Maker; Modelado; 3D; Prototipo.

Abstract — At present, it is no longer necessary to look for specialized professionals to physically capture a prototype. The
exponential growth of new technologies, as well as new trends such as the so -called MAKER, have made it clear that the world is
changing to a new era of innovation and creation. So it is essential to know or acquire the necessary knowledge to achieve an
unfolding in these fields. That is why the management of some easily accessible design tools can provide a plus as better and future
specialists in the field of 3D modeling
Keywords: Maker; modeling; 3D; Prototype

I. OBJETIVOS
Objetivo general:
● Diseñar un chasis que facilite el montaje de un sensor dentro de una estructura propia de algún
prototipo en desarrollo mediante herramientas de modelado en 3DComprender sobre herramientas
de modelado gratuito que permiten desarrollar modelos imprimibles en 3D para prototipos rápidos
Objetivos específicos: Commented [RGQ1]: Qué es esto?
● Conocer los conceptos básicos sobre modelado en Tercera Dimensión (3D). Commented [RGQ2R1]:
● Brindar la compresión de las ventajas, desventajas y cualidades del proceso FFF (fabricación con Formatted: Default Paragraph Font, Font: 10 pt
filamento fundido).
Formatted: Default Paragraph Font, Font: 10 pt
● Enseñar el proceso requerido para diseñar, modelar, procesar y fabricar un modelo digital hacia un
objeto físico. Formatted: Font: (Default) Cambria, 10 pt, Font color:
Custom Color(RGB(0;0;10)), Pattern: Clear

321
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

● Introducir las mejores prácticas actuales en el desarrollo de producto.

II. CONOCIMIENTOS PREVIOS


Se requiere que los asistentes, previo a la inscripción en dicho taller, tengan los conocimientos técnicos que se
detallan a continuación:
● Conocimiento en manejo de computadoras
● Mouse (no se recomienda uso del touchpad)
● Identificar formas geométricas básica

III. METODOLOGÍA
El taller se desarrollará mediante clase magistral y con ejecución de dos ejercicios prácticos el primero guiados por
el instructor y el segundo a criterio de cada participante. Lo ideal es que las actividades sean realizadas de manera individual,
pero es viable el trabajo en parejas. En lo que respecta a la capacidad de participantes dependerá de la capacidad de laboratorio
en que realice el taller, pero se recomienda un máximo de 20 participantes para este taller, con el fin de cumplir con la
demanda de consultas individuales que se generen.
El taller se desenvolverá en un entorno de trabajo dinámico y fluido simulando lo más cercano a la actividad
real para la creación de una pieza o modelo, fortaleciendo el domino y confianza del participante.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Presentar los conceptos
básicos relacionados con
Introducción Danier Cubillo 20 minutos.
Modelado 3D y software en
el mercado
Desarrollo de ejemplos Realizar ejercicios básicos
básicos. de operaciones extrusión Danier Cubillo 20 minutos.
vaciado, uniones.
Realizar un modelo de nivel
Desarrollo de ejemplo de dificultad intermedia con
Danier Cubillo o 60 minutos.
intermedio. acompañamiento en todo el
proceso.
Elaboración de un modelo Cada participante tendrá su
propio espacio para experimentar y
diseñar algo bajo
creatividad propia. Este Danier Cubillo 20 minutos
espacio se utilizaría como
un espacio para consultas o
dudas.
Total 2 horas.

V. REQUISITOS
A. Equipo de cómputo

● La mayoría de las computadoras y computadoras portátiles compradas en los últimos 6 años deberían funcionar
bien con Tinkercad. Hay un requisito estricto de que la tarjeta gráfica debe ser es compatible con wWebGL.
WebGL permite trabajar en 3D en el navegador. Si no está seguro de que su tarjeta gráfica sea compatible con
webGL, visite [Link] para ver si ve un cubo giratorio:
● Navegador
◦ Google Chrome 10 (o más reciente)
◦ Mozilla FireFox 4 (o más reciente)

322
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

● Sistema Operativo
◦ Microsoft Windows 7 o superior
◦ Apple OS X 10.6 o superior
◦ Google Chrome OS on Chromebooks
B. Software
● Tinkercad
● Recomendable que cada usuario tenga ya su cuenta creada ingresar a [Link] y registrarse.
C. Red
● Conexión estable a internet desde las computadoras.

D. Materiales
● Pizarra.
● Marcadores.
● Proyector.
● Conexión eléctrica para dispositivos con clavijas Tipo A / B.

VI. IMPLICACIONES FUTURAS


El taller esta orientado a generar conceptos básicos de diseño y prototipado de componentes áreas que
actualmente son fuertemente requeridas en muchos campos en que las ingenierías se desenvuelven, campos como aeronáutica,
automovilismo, biomédica, mecánica y muchas otras requieren plasmar físicamente muchas de sus ideas por lo que este
primer escalón es fundamental en el desarrollo de las tecnologías actuales como futuras.

VII. BIBLIOGRÁFICAS
Horne, R., & Hausman, K. (2017). 3D Printing for Dummies. Newark: John Wiley & Sons,
Incorporated.

Bernier, S., Luyt, B., Reinhard, T., & Bass, C. Design for 3D printing.

Kelly, J. (2014). 3D modeling and printing with TINKERCAD. Indianapolis, IN: Que.

323
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VIII. BIOGRAFÍAS

Danier Cubillo Morales nació en Alajuela, Costa Rica, estudios realizados en el Instituto Tecnológico
de Costa Rica, universidad donde cursa su carrera en Ingeniería en Computación.
Interesado de la tecnología y la investigación, actualmente contribuye en el desarrollo de estructuras
de soporte para prototipos en el Departamento PROTEC, conocimientos fundamentales en robótica
educativa y metodologías Lego.

324
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Aprender jugando con Makey-Makey

Learn playing with Makey - Makey


Yuliana Rojas Serrano
Instituto Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
yulirose21@[Link]

Daniela Alvarado Otoya


Instituto Tecnológico de Costa Rica
Unidad de Computación
San Carlos, Alajuela, Costa Rica
alvarado22daniela@[Link]

Rocío de los Ángeles Quirós Oviedo


Carrera de Ingeniería en Computación
Instituto Tecnológico de Costa Rica
San Carlos, Costa Rica
[Link]@[Link]

Resumen— En la actualidad la educación ha ido incorporando nuevos métodos de enseñanza, entre ellos las actividades
lúdicas, las cuales se pueden utilizar como herramientas pedagógicas para fortalecer el aprendizaje de manera atractiva
y natural, desarrollando y fortaleciendo habilidades en el estudiante. Se pretende realizar un taller utilizando el circuito
electrónico Makey-Makey y de esta manera introducir la tecnología y otras ramas de la educación de manera
interactiva.
Keywords: Métodos de enseñanza; Lúdica; Makey-Makey; Tecnología.

Abstract — Currently, education has been incorporating new teaching methods, including playful activities, which can
be used as pedagogical tools to strengthen learning in an attractive and natural way, developing and strengthening
skills in the student. It is intended to conduct a workshop using the Makey-Makey electronic circuit and thus introduce
technology and other branches of education interactively.
Keywords: Teaching methods; Playful; Makey-Makey; Technology.

325
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

I. OBJETIVOS
Objetivo general:

● Desarrollar ejercicios prácticos que ayuden a la comprensión e integración de placas ya programadas


de forma lúdica.

Objetivos específicos:

● Conocer los conceptos básicos de las placas programadas y programables y los diferentes
materiales conductores de electricidad.
● Integrar la funcionalidad de los diferentes materiales conductores para el control del Makey
Makey
● Realizar ejercicios prácticos que permitan la comprensión y desarrollo de educación lúdica
mediante el uso del Makey Makey.

II. CONOCIMIENTOS PREVIOS

Se requiere que los asistentes cuenten con creatividad y deseos de innovación y aprendizaje.

III. METODOLOGÍA

El taller se desarrollará mediante clase magistral y con ejecución de ejercicios prácticos guiados por los
instructores. En lo que respecta a los ejercicios, estos se realizarán en grupos de dos o de tres personas (dependerá
de la cantidad de participantes). Permitiendo un máximo de 10 a 15 participantes para este taller, en el cual se
aplicará la metodología aprender haciendo, con tiempos regulados pero flexibles que les permita a los participantes
alcanzar el desarrollo de los mismos a su propio ritmo.
En el taller se procederá a realizar una presentación, que permita demostrar el uso de placas ya programadas y
programables. Una vez terminado el ejercicio anterior, se procederá a realizar ejercicios que permitan diferenciar
los diferentes materiales conductores de electricidad que podrían utilizarse para controlar, en este caso, el Makey
Makey y así proceder al cierre del taller con la implementación de estos materiales para interactuar con la placa.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Introducción Presentar los conceptos Yuliana Rojas 20 minutos.
básicos relacionados con Daniela Alvarado
placas ya programadas
Realizar ejercicios
Desarrollo de introductorios que permitan Yuliana Rojas 40 minutos.
ejemplos básicos. diferenciar entre los Daniela Alvarado
materiales conductores de
electricidad.

Integrar el funcionamiento
Desarrollo de de estos materiales con el Yuliana Rojas 1 hora.
ejemplo avanzado. makey makey permitiendo Daniela Alvarado
desarrollar ejercicios Roció Quirós
lúdicos.

Total 2 horas

326
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. REQUISITOS

A. Equipo de cómputo
● Disponibilidad de puertos USB libres.
● Makey Makey Standard Kit
B. Red
● Conexión estable a internet desde las computadoras.
C. Materiales
● Pizarra.
● Marcadores.
● Proyector.
● Plastilina PlayDoh
● Frutas

VI. IMPLICACIONES FUTURAS

Aunque el enfoque del taller está basado en brindar conocimientos básicos sobre el uso de estas placas
programadas, se debe tener en cuenta que se puede sacar mucho provecho de ellas adecuandolas a la enseñanza
introductoria de la tecnología. Gracias a su filosofía, este sencillo instrumento busca que sus usuarios encuentren
nuevas maneras de interactuar con la tecnología y así potenciar su creatividad e imaginación. Existen muchas
ideas útiles que se pueden desarrollar con esta sencilla herramienta

VII. REFERENCIAS BIBLIOGRÁFICAS

[1] Rojas López, A. D. (2019). Desarrollo de una herramienta tecnológica lúdica para la iniciación musical
en niños. Recuperado de: [Link]
[2] Vivo Vicent, C(2017). La competencia digital en edades tempranas: una experiencia educativa con
Makey Makey. Recuperado de: [Link]
[3] Gómez, T; Molano, O y Rodríguez, S.(2015) La actividad lúdica como estrategia pedagógica para
fortalecer el aprendizaje de los niños de la institución educativa Niño Jesús de Praga. Ibagué :
Universidad del Tolima, 2015. Recuperado de: [Link]

327
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VIII. BIOGRAFÍAS

Yuliana Rojas Serrano nació en Alajuela, Costa Rica el 21 de mayo del 1999. Cursó
sus estudios de secundaria en el Colegio Técnico Profesional de Pital con un técnico medio en
Informática en Redes. Ingreso en el 2018 al Instituto Tecnológico de Costa Rica, universidad
donde cursa su carrera en Ingeniería en Computación.
Asistente del Departamento de Soporte, es miembro activo de la Comunidad de Computronica
y forma parte del Comité Ejecutivo de IEEE Computer Society.

Daniela Alvarado Otoya nació en Alajuela, Costa Rica el 22 de diciembre del 2000.
Cursó sus estudios de secundaria en el Liceo de Alfaro Ruiz. Ingreso en el 2018 al Instituto
Tecnológico de Costa Rica, universidad donde cursa su carrera en Ingeniería en Computación.
Es miembro activo de la Comunidad de Computronica.

Rocio Quirós Oviedo es docente de la Carrera de Ingeniería en Computación del


Instituto Tecnológico de Costa Rica sede San Carlos. Cuenta con el Bachiller de Ingeniería en
Computación además una Licenciatura en docencia, actualmente estudiante de la maestría de
Computación con énfasis de sistemas de información del Tecnológico de Costa Rica, en San
Carlos. Desde el año 2015 a la actualidad ha participado de forma permanente en proyectos
de investigación en temáticas como geomática y bases de datos, pruebas automáticas.
Actualmente, es investigadora en el proyecto de investigación GeoToroTur: Geomática
utilizando ToroDB aplicada al Turismo. Y es Coordinadora de la Comunidad Estudiantil
Computrónica desde el 2015 hasta la fecha.

328
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Entendiendo la Energía a través de la


Robótica
David Sequeira Castro1
Vanessa Carvajal Alfaro2
Campus Tecnológico Local San Carlos, Costa Rica
dsequeira@[Link].cr1 ; vcarvajal@[Link] 2

La energía es uno de los conceptos más importantes debido a que engloba muchos procesos tanto en la naturaleza
como en la vida cotidiana, sin embargo su aprendizaje se vuelve complejo debido a la abstracción propia del concepto
[1]. Además de lo anterior surgen otras complejidades en el aprendizaje de este tema asociadas a suposiciones
incorrectas o expresiones propias de nuestro contexto diario tales como “la energía puede gastarse, crearse o
destruirse” “La energía nunca podrá ser almacenada” “en nuestro país hay crisis energética” [2].

Sin embargo, las investigaciones relacionadas con el aprendizaje de conceptos de energía no han tomado
en consideración el aprendizaje previo de los estudiantes [3]. Es por lo anterior, que a través de este taller
basado en una metodología por indagación con ayuda de las piezas armables y los bloques de programación
de Lego® se pretende comprobar la ley de conservación de la energía a través de un sistema mecánico
mediante complementos de robótica.
Mediante la realización de este taller se espera generar conocimientos sobre principios básicos de robótica
y sobre la importancia del uso de las energías renovables en procesos industriales automatizados con el fin
de disminuir las consecuencias ambientales de la producción y consumo de energía.
Palabras clave: energías renovables, robótica, conservación de la energía.

I. OBJETIVOS
Objetivo General
Comprobar la ley de conservación de la energía a través de un sistema mecánico programado
mediante un bloque EV3.
Objetivos específicos
Reconocer la energía como una propiedad de todos los sistemas.
Identificar las distintas formas de energía con sus respectivas fuentes.
Valorar las consecuencias ambientales de la producción y consumo de energía.

II. CONOCIMIENTOS PREVIOS


Durante el desarrollo del taller no es necesario poseer ningún conocimiento previo debido a que la
metodología del taller se basa en el aprendizaje por indagación en donde los conocimientos que provienen
del contexto cotidiano son valorados y tomados en cuenta pero siempre sujetos a mejoras.

III. METODOLOGÍA
1. Se da inicio al taller con una pregunta exploratoria. El fin de la misma es indagar sobre los
conocimientos previos que poseen los participantes con respecto a la energía. Para esta
actividad se solicitará que formen grupos de tres personas y debatan entre si la pregunta
exploratoria para escribir al final un solo argumento por grupo.
2. Los moderadores del taller solicitaran a los participantes que construyan el modelo proyectado
con ayuda de bloques armables y de un bloque programable EV3 (ambos de Lego).

329
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

3. Se brindará a los participantes las instrucciones de programación del bloque EV3 para que
puedan descargarla y ejecutar la experiencia práctica con el modelo armable.
4. Una vez construido el modelo armable y programado el bloque EV3 se le brindará a los
participantes una guía de trabajo. En esta guía de trabajo se abordará la ley de conservación de
la energía mediante la carga y descarga de motores y de luces led del modelo anteriormente
construido.
5. A partir de la experiencia generada con la guía se solicitará a los estudiantes vuelvan a leer la
respuesta a la pregunta exploratoria y que modifiquen la respuesta en caso de ser necesario.
6. Después de que cada grupo tenga su argumento o respuesta final a su pregunta deberá
exponerla al grupo. Cada respuesta será anotada en la pizarra por alguno de los moderadores
en forma de lluvia de ideas.
7. Entre todos los participantes se llegará a un consenso sobre la pregunta indagadora generando
consigo una única conclusión colectiva. Se discutirán los aspectos más relevantes de la práctica
realizada, además se preguntará a los participantes si la respuesta inicial cambió con respecto
a la respuesta final y por qué motivo.
8. Se hará una discusión final sobre la energía enfocada en las consecuencias de consumo y
producción de la misma. Durante este cierre del taller se espera abordar como eje transversal
el uso de energías renovables de manera que se evidencie el gran aporte que brindaríamos al
planeta tierra si se aprovecharan los recursos de una manera más racional.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Energía Se realiza una pregunta David Sequeira Castro 10 minutos
indagatoria sobre la
energía
Construcción del David Sequeira Castro 35 minutos
Robótica y energía modelo armable Vanessa Carvajal
Alfaro
Robótica y energía Instrucciones de David Sequeira Castro 5 minutos
programación de Vanessa Carvajal
bloque EV3 Alfaro
Robótica y energía Desarrollo de Guía de David Sequeira Castro 30 minutos
trabajo por parte de los Vanessa Carvajal
participantes Alfaro
Robótica y energía Análisis de la pregunta David Sequeira Castro 5 minutos
generadora
Lluvia de ideas de los Vanessa Carvajal 10 minutos
Energía participantes sobre la Alfaro
pregunta generadora.
Energía Discusión y puesta en David Sequeira Castro 15 minutos
común de la idea Vanessa Carvajal
general de la pregunta Alfaro
generadora
Energía y robótica Cierre de taller Vanessa Carvajal 10 minutos
Alfaro

V. REQUISITOS
A. Equipo de cómputo
Windows PC
Sistema operativo:
Windows 7, Windows 8 y Windows 10 (excepto Win RT).
Hardware:
• 2 GB de RAM o más

330
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

• Procesador a 1,5 GHz o más rápido


• 2 GB de espacio disponible en el disco duro
• Puerto USB disponible o Bluetooth 2.0 o superior
• Resolución de pantalla mínima admitida: 1024 x 600

Mac
Sistema operativo:
Mac OS X 10.6 (Snow Leopard) o superior
Hardware:
• 2 GB de RAM o más
• Procesador a 1,5 GHz o más rápido
• 2 GB de espacio disponible en el disco duro
• Puerto USB disponible o Bluetooth 2.0 o superior
• Resolución de pantalla mínima admitida: 1024 x 600
B. Software
Primero se debe descargar el software de la siguiente página: [Link]
software-lego-mindstorms-education-ev3
Una vez instalado el software se debe descargar el complemento llamado “Actividades de Ciencia”
que se encuentra justamente en esa misma página en la sección de actividades curriculares.
La versión más actualizada del software es la que siempre se encuentra en la página. Los requisitos
del software únicamente se encuentran asociados al hardware que fueron enlistados anteriormente.
C. Red
No es necesaria la conexión a la red para el desarrollo del taller.
D. Materiales
• Proyector
• Cables HDM1 y VGA
• Puntero
• Laboratorio de computadores (con el software instalado LEGO MINDSTORM)

VI. IMPLICACIONES FUTURAS


Al aplicar y finalizar esta propuesta de taller se espera que los participantes logren obtener:
• Conocimientos básicos sobre la ley de conservación de la energía.
• Habilidades en la construcción y manejo de bloques armables de Lego®
• Destrezas en los principios básicos de robótica.
• Concientización sobre las implicaciones de la producción y consumo de energía.
• Concientización sobre la importancia del uso de las energías renovables.
Por otra parte se espera que las ideas desarrolladas durante el taller sirvan de insumos para posibles
proyectos futuros como ferias científicas, ferias de atracción de talentos o actividades de clubes de ciencias.

VII. REFERENCIAS BIBLIOGRÁFICAS


[1] SOLBES, Jordi; TARÍN, Francisco. La conservación de la energía: un principio de toda la física. Una propuesta y unos
resultados. Enseñanza de las ciencias: revista de investigación y experiencias didácticas, 2004, vol. 22, no 2, p. 185-193.
[2] TARÍN, Francisco. El principio de conservación de la energía y sus implicaciones didácticas. 2000.
[3] SOLBES, Jordi; TARÍN, Francisco. Algunas dificultades en torno a la conservación de la energía. Enseñanza de las ciencias:
revista de investigación y experiencias didácticas, 2000, vol. 16, no 3, p. 387-398.

331
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Ahorro energético
Construcción de un modelo eólico mediante herramientas de
robótica

Lorena Valerio Solís1


Vanessa Carvajal Alfaro2
Campus Tecnológico Local San Carlos, Costa Rica
lvalerio@[Link] 1; vcarvajal@[Link] 2
Los contenidos relacionados con la energía son particularmente claves en la alfabetización científica. Ésta consiste en
la adquisición de aptitudes, actitudes y su aplicación en contextos cotidianos [1]. Sin embargo; en muchas ocasiones
cuando se enseña este tema en los diferentes niveles de escolaridad se deja de lado la concientización del uso racional
de la energía. En un panorama como el actual en el que los recursos energéticos se están agotando e incidiendo de
manera directa en la calidad de vida de las personas es cuando se vuelve necesario fomentar la enseñanza de actitudes
de valorización, cuidado y ahorro de la energía [2].
Debido a lo anterior, este taller a través de la metodología STEAM, tiene como objetivo principal diseñar un modelo
eólico mediante herramientas de robótica para la ejemplificación del ahorro energético a través del uso energías
renovables.
Mediante la realización de este taller se espera generar conocimientos sobre principios básicos de robótica, así como
un proceso de concientización que permita a los participantes generar un pequeño cambio desde su propio contexto
socio- cultural
Palabras clave: energía, ahorro, EV3, STEAM, robótica.

I. OBJETIVOS
Objetivo General
Diseñar un modelo eólico mediante herramientas de robótica para la ejemplificación del ahorro
energético a través del uso energías renovables. Objetivos específicos
Identificar la importancia que tiene para la sociedad el ahorro de energía.
Impulsar el uso eficiente de la energía en los diferentes espacios de la sociedad.
Identificar las principales causas del desperdicio energético.
Reconocer la importancia del uso de energías renovables como alternativa para la disminución del impacto
de la contaminación y el desperdicio energético.

II. CONOCIMIENTOS PREVIOS


Para el desarrollo de este taller no se necesitan conocimientos previos ya que se trabajará mediante
la metodología STEAM la cual busca comprender los fenómenos del contexto cotidiano mediante las
ciencias, ingeniería y matemática.

III. METODOLOGÍA
El desarrollo del taller se basará en la metodología STEAM mediante la cual se busca que los
participantes enlacen los conocimientos propios del contexto mediante las ciencias, la matemática y la
ingeniería.
1. Inicialmente se realizarán unas preguntas de manera introductoria sobre situaciones
contextualizadas relacionadas con el ahorro de energía. Estas actividades tienen como fin que
los instructores conozcan el grado de información que tienen los participantes acerca del tema.

332
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

2. Seguidamente se solicitará a los participantes que realicen un boceto (puede ser un dibujo o
con los bloques armables de Lego®) sobre un prototipo que funcione a través de energías
renovables que pudiera ejemplificar un proceso de ahorro de energía.
3. Los participantes exponen y explican sus prototipos a los demás compañeros. Durante el
proceso los demás compañeros brindan posibles ideas para la posible mejora del prototipo.
4. Los colaboradores del taller solicitarán a los participantes que formen grupos de tres personas
máximo y con ayuda del EV3 y de los bloques armables de Lego®, construyan el modelo de
ahorro de energía indicado (el equipo lo suministran las ejecutoras del taller).
5. Se solicita a los grupos de trabajo que ejecuten la guía la cual será entregada por los
facilitadores del taller a cada miembro.
6. Después de ejecutada la guía de trabajo se solicitará que contrasten los modelos de ahorro de
energía realizados en el boceto por cada participante con respecto al construido mediante los
bloques armables. Deben discutir posibilidades de mejoras o de reconstrucción.
7. Cada grupo de trabajo comparte sus hallazgos más relevantes discutidos con sus compañeros.
8. Para el cierre del taller se realiza una puesta en común sobre cómo la actividad se vincula con
situaciones del contexto cotidiano. En esta sección es imprescindible enfatizar sobre la
importancia y el impacto del uso de la energía renovable.

Enumere y explique brevemente las estrategias metodológicas de enseñanza que serán utilizadas
en
el taller.

IV. CONTENIDO

Tema Descripción Colaborador Duración


Ahorro Preguntas introductorias Vanessa Carvajal 10 minutos
energético sobre el ahorro Alfaro
energético
Construcción de un Vanessa Carvajal 10 minutos
Ahorro energético prototipo de ahorro de Alfaro
energía
Ahorro energético Exposición del prototipo Lorena Valerio Solís 10 minutos
a los compañeros
Ahorro energético y Construcción del Lorena Valerio Solís 30 minutos
robótica modelo armable con
ayuda de los bloques de
construcción y
programación de Lego®
Ahorro energético y Ejecución de la guía de Vanessa Carvajal 30 minutos
robótica trabajo Alfaro
Ahorro energético y Contrastación de los Lorena Valerio Solís 10 minutos
robótica modelos
Ahorro energético y Puesta en común sobre Vanessa Carvajal 10 minutos
robótica los hallazgos más Alfaro
relevantes
Ahorro energético y Cierre del taller Vanessa Carvajal 10 minutos
robótica Alfaro

333
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

V. REQUISITOS
A. Equipo de cómputo
Windows PC
Sistema operativo:
Windows 7, Windows 8 y Windows 10 (excepto Win RT).
Hardware:
• 2 GB de RAM o más
• Procesador a 1,5 GHz o más rápido
• 2 GB de espacio disponible en el disco duro
• Puerto USB disponible o Bluetooth 2.0 o superior
• Resolución de pantalla mínima admitida: 1024 x 600

Mac
Sistema operativo:
Mac OS X 10.6 (Snow Leopard) o superior Hardware:
• 2 GB de RAM o más
• Procesador a 1,5 GHz o más rápido
• 2 GB de espacio disponible en el disco duro
• Puerto USB disponible o Bluetooth 2.0 o superior
• Resolución de pantalla mínima admitida: 1024 x 600
B. SOFTWARE
Primero se debe descargar el software de la siguiente página:
[Link]
Una vez instalado el software se debe descargar el complemento llamado “Actividades de Ciencia”
que se encuentra justamente en esa misma página en la sección de actividades curriculares.
La versión más actualizada del software es la que siempre se encuentra en la página. Los requisitos
del software únicamente se encuentran asociados al hardware que fueron enlistados anteriormente.
C. Red
No es necesaria la conexión a la red para el desarrollo del taller.

D. Materiales
a. Proyector
b. 1 Cable HDMI y 1 cable VGA
c. Puntero
d. Laboratorio de computadores (con el software instalado LEGO MINDSTORM)

VI. IMPLICACIONES FUTURAS


Al aplicar y finalizar esta propuesta de taller se espera que los participantes logren obtener:
Habilidades en la construcción y manejo de bloques armables de Lego®
Habilidades en principios básicos de robótica.
• Identificación de la importancia de los procesos energéticos en la sociedad.
• Concientización sobre la importancia del consumo de energía de manera racional.
• Concientización sobre la importancia del uso de las energías renovables para la
disminución de la huella de carbono en el planeta.

VII. REFERENCIAS BIBLIOGRÁFICAS


[1] RAVIOLO, A.; SIRACUSA, Paula; HERBEL, M. Desarrollo de actitudes hacia el cuidado de la energía: experiencia en la
formación de maestros. Enseñanza de las ciencias: revista de investigación y experiencias didácticas, 2000, vol. 18, no 1, p.
7986.
[2] AZNAR, M. Mercedes Martínez; NIETO, María Paloma Varela. La resolución de problemas de energía en la formación
inicial de maestros. Enseñanza de las ciencias: revista de investigación y experiencias didácticas, 2009, vol. 27, no 3, p. 343-
360.

334
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Creación de sitios web modernos con CSS


GRID
Br. Wilber David Méndez Rodríguez
Universidad de El Salvador Facultad Multidisciplinaria Oriental, El Salvador
mendezwilber94@[Link]

Br. Carlos Edenilson Romero Hernández


Universidad de El Salvador Facultad Multidisciplinaria Oriental, El Salvador
[Link]@[Link]

Br. Luis Fernando Hernandez Castillo


Universidad de El Salvador Facultad Multidisciplinaria Oriental, El Salvador
fercastle@[Link]

Resumen — Uno de los procesos más difíciles de aprender con CSS es la colocación y distribución de elementos
en una pagina web. Herramientas como el posicionamiento, foats o elementos de tipo bloque y de tipo en línea
suelen ser muy complejos y en algunos casos insuficientes para la creación de páginas webs modernas.

Existen Frameworks como Bootstrap que implementan su propio sistema de grid donde modificando las clases
de los elementos HTML podemos cambiar su tamaño y distribución.

CSS Grid nace de esa necesidad, y recoge las ventajas de ese sistema, añadiéndole numerosas mejoras y
características que permiten crear rápidamente cuadrículas sencillas y potentes de forma prácticamente
instantánea.

I. OBJETIVOS
Objetivo general.
Crear un sitio web utilizando CSS GRID.

Objetivos específicos.
- Diseñar un layout practico y que pueda ser adaptado a dispositivos móviles.
- Utilizar las herramientas de desarrollo de Mozilla Firefox para facilitar el diseño del sitio web
con CSS GRID.

II. CONOCIMIENTOS PREVIOS


- Conocimientos básicos de HTML5
- Conocimientos básicos de CSS
III. METODOLOGÍA
Motivar a los participantes del taller a través de la puesta en practica de un ejercicio de desarrollo
web utilizando tecnologías modernas.

335
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

IV. CONTENIDO

Tema Descripción Colaborador Duración


¿Que es CSS Breve explicación e historia del Carlos Romero 15 minutos
CRID? surgimiento de CSS GRID.

Demostración practica de los Luis Hernández 15 minutos


¿Cómo funciona conceptos básicos de CSS
CSS GRID? GRID.
Se creará la estructura de una Wilber Méndez 1 hora
Elaboración de un página web utilizando
layout moderno posicionamiento con CSS
con CSS GRID GRID.
Haciendo nuestro Se adaptará el layout para que Wilber Méndez 30 minutos
sitio web pueda ser visualizado de forma
responsive correcta en diferentes tamaños
de pantalla.

V. REQUISITOS
A. Equipo de cómputo
- Procesador Dual Core 1Ghz o superior
- RAM 4GB o superior
- 1GB Libre de almacenamiento en disco
- Mouse, teclado, monitor.
B. Software
- Sistema operativo
- Windows 7 o Superior.
- Ubuntu 16.04 o Superior.
- Debian 8 o Superior.

- Editor de código
- Atom 1.0 o superior.
- Visual Studio Code 1.0 o Superior.

- Navegador Web
- Mozilla Firefox 53 o superior
C. Red
- Acceso a internet.

D. Materiales
Librería FontAwseome.(para agregar iconos)

336
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

VI. IMPLICACIONES FUTURAS


Conociendo CSS GRID se puede crear fácilmente diseños web modernos y adaptables sin la
necesidad de depender de librerías o Framewroks adicionales. Podemos ser capaces de realizar diseños y
estructuras que anteriormente no podíamos o era muy complicado de hacer con otras herramientas de CSS
como flexbox.

VII. NUMERO DE PERSONAS QUE SE ATENDERAN


De 20 a 30 personas, según disponibilidad del centro de cómputo.

337
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

INTRODUCCIÓN AL DATA WAREHOUSE


Emilson Omar Acosta Girón
Universidad Nacional Autónoma de Honduras (UNAH), Honduras
[Link]@[Link]

Resumen — En el mundo de los negocios actuales se necesita tener a disposición una herramienta que ayude a
mejorar la toma de decisiones para los gerentes de la empresa. Para ello se puede implantar un proyecto de data
warehouse que permita realizar de forma más ágil, interactiva y rápida los reportes que ayudarán a los gerentes
o a las personas indicadas para la toma de decisiones. Con un proyecto de data warehouse se puede analizar la
información Este documento electrónico es una plantilla “viva”. Los estilos de los distintos componentesque se
generan a diario en una empresa, cuyos análisis sería muy dificultoso realizar a papel y mano ya que los datos
analizados representan miles y miles de registros.

Palabras clave: data warehouse, data mart, etl, integration services, analysis services, reporting services,
inteligencia de negocios, cubo olap.

I. OBJETIVOS
Objetivo General
Conocer los elementos necesarios para la construcción de un data warehouse y cuáles son los
beneficios que conlleva su utilización en una empresa, así como también proveer un mecanismo que ayude
a mejorar la toma de decisiones
Objetivos específicos
Conocer en qué consiste un data warehouse, sus beneficios y ventajas para las empresas
Conocer las herramientas necesarias para la elaboración de un data warehouse
Conocer los distintos modelos para la construcción de un data warehouse
Construir un data warehouse en base a un data mart específico

II. CONOCIMIENTOS PREVIOS


Para asistir al taller, es necesario que los participantes tengan conocimientos sobre:
• Base de datos
• Sistemas de información
• Conocimientos básicos sobre redes de datos

III. METODOLOGÍA
Enumere y explique brevemente las estrategias metodológicas de enseñanza que serán utilizadas en
el taller.
Exposición magistral participativa para el análisis y discusión de los diferentes temas, se explicarán
todos los temas mediante el uso de diapositivas y videos relacionados a los temas a abordar, en donde el
estudiante podrá realizar las preguntas necesarias para despejar sus dudas y agregar comentarios u
observaciones a los temas vistos.
Resolución de problema relacionado con los temas estudiados, se planteará un problema de una
empresa que desea implantar un data warehouse y en el cual se deberán aplicar todos los conceptos vistos en
la parte teórica

338
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

Ejercicio práctico que integrará todos los temas vistos en el taller, en base al problema planteado se
realizará la solución proporcionada utilizando las herramientas necesarias para la construcción del data
warehouse.
IV. CONTENIDO
El taller se ha previsto para atender a un máximo de 20 personas.

Tema Descripción Colaborador Duración


Introducción al data Se explicarán los 1 hora
warehouse conceptos básicos de
un data warehouse y
cuáles son los
beneficios y
elementos necesarios
para su construcción.
Construcción de un Se construirá un 2 horas
modelo de base de modelo en estrella o
datos para el data copo de nieve para la
warehouse y base de datos del data
construcción del ETL warehouse, el cual se
basará en un aspecto
en concreto del
negocio (data mart).
Generación de En base al modelo 1 hora
reportes en base al construido o al data
modelo de data mart analizado, se
warehouse construido construirán los
reportes que permitan
visualizar la
información obtenida
y que permita mejorar
la toma de decisiones
en la empresa.

V. REQUISITOS
A. Equipo de cómputo
Liste las especificaciones mínimas que deberán cumplir las computadoras del laboratorio donde se
realizará su taller.
CPU Core i3 mínimo
Mínimo 6 GB de RAM
Sistema operativo Windows 7 mínimo, de 64 bits
B. Software
Liste los requisitos del software que deberá estar instalado en las computadoras, indicando
claramente la versión o el rango de versiones del mismo.
SQL Server Enterprise, versión 2014 o 2016
SQL Server Data Tools para Visual Studio 2015, versión 16.5
Tableau Server, versión 2019-2-0
Navegador web Chrome o Firefox

339
Actas del XII Congreso Iberoamericano de Computación para el Desarrollo - COMPDES 2019

C. Red
Liste los requisitos que deberá cumplir la red a la que pertenezcan los equipos, por ejemplo:
conectividad local, acceso a internet, números de puerto desbloqueados.
Acceso a la red local, preferiblemente que todos los equipos estén en la misma red
Puerto 1433 desbloqueado para SQL Server Enterprise
Puerto 80 desbloqueado para acceso web de Tableau Server
D. Materiales
Liste otros materiales adicionales que se necesitará para el taller.
• Pizarra
• Marcador
• Borrador
• Data show
• Parlantes
• Apuntador

VI. IMPLICACIONES FUTURAS


Escriba las implicaciones a futuro de la puesta en práctica del taller.
El estudiante podrá obtener conocimientos básicos necesarios que permitan la construcción de un
data warehouse en una empresa, el cual dará un valor agregado a la empresa ya que se podrán tomar mejores
decisiones en base a la serie de reportes presentados gracias a la obtención de la información de las
operaciones de la empresa. Además, el estudiante podrá realizar la integración de distintas herramientas de
software para el desarrollo de este tipo de proyectos. Con estos conocimientos se espera despertar la
curiosidad en el estudiante para que pueda incursionar un poco más en el mundo de la inteligencia de
negocios y desarrollar proyectos que sean más robustos y de mayor envergadura que permitan eficientar las
operaciones dentro de la empresa.
VII. REFERENCIAS BIBLIOGRÁFICAS
[1] Cano, Josep Lluís. Business intelligence: competir con información. Banesto, Fundación Cultur, 2007.
[2] Laudon, Kenneth C., y Jane P. Laudon. Sistemas de Información Gerencial. Decimo segunda. Pearson, 2016.
[3] Ramos, Salvador. Microsoft Business Intelligence, vea el cubo medio lleno. SolidQTM Press, 2011.

340

También podría gustarte