Última modificación: 2022-10-14
Resumen
En la actualidad es muy común invertir en empresas de cualquier parte del mundo, a través de plataformas de internet o las bolsas de valores. Esto genera un ingreso o perdida para muchos inversores, mismos que realmente no pueden conocer una predicción 100% efectiva del estado financiero futuro de la empresa y con ello generar certidumbre en la inversión.
Ante estos problemas, se plantea una solución tecnológica basada en algoritmos de machine learning, particularmente máquinas de vectores de soporte, redes neuronales, K vecinos cercanos y redes neurodifusas.
Para generar el modelo computacional se requiere de una base de datos de radios financieros, mismos que brindan un análisis financiero amplio de la empresa y derivan de los estados financieros básicos: balance general, flujo de efectivo y estado de resultados. Esta base de datos es la obtenida del Taiwán Economic Journal de 1999 a 2009, con 95 radios financieros de empresas financieramente estables y con problemas de bancarrota.
Para llegar a arquitecturas funcionales, se utilizaron diferentes pre procesamientos de datos.
En redes neuronales el análisis fue bastante amplio, ya que se probó la profundidad de la red, numero de épocas, cantidad de neuronas, las funciones de activación de cada capa, la función de perdida y el radio de aprendizaje. También se experimentó con una arquitectura de redes convolucionales.
En las máquinas de vectores de soporte, se realizaron experimentos con los kernels polinomiales, RBF, lineal, el tamaño de C, de gamma y del polinomio (para kernel polinomial).
En los K vecinos cercanos, se experimentó con el número de vecinos, tipo de pesos y el valor de P.
En las redes neuro difusas, se utilizó como hiper parámetro el número de reglas difusas, cantidad y tipo de funciones de membresía, épocas y dimensiones de entrada.
Las arquitecturas mencionadas anteriormente, se evaluaron en términos de accuracy, matriz de confusión y K-Fold para medir su efectividad en clasificación. Adicionalmente se utilizaron las pruebas estadísticas Friedman y Nemenyi a los datos obtenidos en el K-Fold.
Al obtener arquitecturas que se consideraron eficientes, se realizaron optimizaciones por medio de algoritmos genéticos y optimización por partículas, a los tres mejores algoritmos, donde se basaron en la búsqueda de los mejores hiper parámetros que brindaran un accuracy más alto. Obtenidos los mejores individuos, también se sometieron a un K-Fold, donde se compararon los resultados con el promedio del K-Fold hecho en la fase de experimentación empírica. Se determinó que se habían logrado mejorar 2 de los 3 algoritmos.
Se puede determinar que el mejor algoritmo fue el de redes neuronales, pues es el que tuvo mejor promedio al someterse a todas las pruebas propuestas.