Está en la página 1de 8

Machine Translated by Google

Hindawi
Complexity
Volumen 2022, artículo ID 8942773, 8
páginas https://doi.org/10.1155/2022/8942773

Artículo de revisión

Medición del Riesgo de Crédito, Análisis de Decisiones, Transformación y


Actualización para Big Data financiero

Wenshuai Wu
Academia de Ciencias de la Decisión de Guangdong, Universidad Sun Yat-sen, Guangzhou, Guangdong 510275, China

La correspondencia debe dirigirse a Wenshuai Wu; wuwsh8@163.com

Recibido el 9 de diciembre de 2021; Revisado el 12 de abril de 2022; Aceptado el 15 de abril de 2022; Publicado el 2 de mayo de 2022

Editor académico: Yu Zhou

Copyright © 2022 Wenshuai Wu. *Este es un artículo de acceso abierto distribuido bajo la licencia Creative Commons Attribution License, que permite el uso, la distribución y
la reproducción sin restricciones en cualquier medio, siempre que se cite correctamente el trabajo original.

*No existe una teoría bien construida sobre la medición del riesgo crediticio y el análisis de decisiones para big data financiero, y no se ha formado un sistema de evaluación
científico y efectivo para ellos. Una revisión de ellos puede contribuir a comprender los temas mencionados anteriormente, comprender los problemas actuales, analizar los
problemas de investigación, dominar los desafíos de la investigación y predecir las direcciones futuras de la investigación. Además, este documento señala cuatro direcciones
de investigación de la medición del riesgo crediticio y el análisis de decisiones para big data financiero. Además, este documento puede proporcionar algunas indicaciones de
orientación y puntos de vista para los profesionales, investigadores, instituciones financieras y departamentos gubernamentales interesados en la toma de decisiones complejas
en big data.

1. Introducción mejorar la estructura de la industria financiera y mantener la estabilidad


financiera regional [2].
Con el rápido desarrollo de las finanzas de Internet, la computación *El campo financiero está profundamente involucrado en el cálculo
en la nube, Internet de las cosas y las técnicas de big data, los datos de eventos de big data [5]. *El sistema de crédito financiero no solo es
generados por la sociedad a partir de datos estructurados, datos una parte importante del sistema de crédito social sino también uno
semiestructurados y datos no estructurados, como datos de tarjetas de los campos de investigación más básicos [6]. Las instituciones
de crédito, datos de comercio electrónico, currículum Los datos, los financieras emplean modelos de calificación crediticia para identificar
datos de imágenes, los datos de audio y los datos de video están prestatarios potenciales y determinar el precio de los préstamos y los
proliferando a una velocidad sin precedentes, lo que marca la llegada requisitos de garantía mediante la medición del riesgo crediticio [7–9].
de la era de los grandes datos [1–4]. En 2012, las Naciones Unidas La medición eficaz del riesgo de crédito es el núcleo de la gestión del
publicaron un libro blanco sobre asuntos gubernamentales de riesgo de crédito. Además, la medición del riesgo crediticio depende
macrodatos, que enumeraba los macrodatos como una oportunidad de datos masivos, que son difíciles de mejorar la precisión de los
histórica a nivel mundial. En 2013, Estados Unidos propuso invertir resultados del análisis [10, 11] debido a características complejas
USD 200 millones para promover el desarrollo de industrias de big como la heterogeneidad de múltiples fuentes, la oportunidad, la
data para actualizar la "estrategia de big data" de acuerdo con la sociabilidad y la emergencia. * Por lo tanto, para los macrodatos
voluntad nacional. *Las grandes ventajas de los grandes datos han financieros, como los datos de información de clientes bancarios, los
atraído a más países y regiones a unirse al proceso de exploración y datos de gestión de crédito y los datos de información de transacciones
aplicación de los grandes datos. En China, también se emitió el financieras, el problema de desarrollar tecnologías efectivas de
decimocuarto plan de desarrollo quinquenal para big data para medición del riesgo crediticio y análisis de decisiones es un problema desafiante y dif
enfatizar la necesidad de centrarse en desarrollar tecnologías clave Aunque algunos académicos se dedican a la investigación de
de big data, innovar el modo de servicio de big data, cultivar el sistema macrodatos financieros, la mayoría de ellos se ha centrado en la
de productos de big data y apoyar el desarrollo de big data. industria. investigación teórica y de políticas [13–15]. Para el big data financiero,
La investigación sobre macrodatos financieros no solo es un requisito todavía faltan teorías y métodos sistemáticos y científicos para medir
para el desarrollo de la sociedad, sino que también conduce a el riesgo crediticio, con el fin de explorar el mecanismo de evaluación.
comprender el estado operativo para promover mejor la transformación y Además, también existen riesgos en la toma de decisiones en
Machine Translated by Google

2 Complejidad

la elección de modelos de riesgo de crédito en el entorno de big data. recursos para ayudar en la transformación y modernización industrial.
Además, los macrodatos no solo presentan desafíos sin precedentes para el Big data ha brindado oportunidades sin precedentes [13, 15, 21] para la
modelo tradicional de ganancias, la gestión de operaciones y el modo de transformación y mejora industrial.
servicio al cliente de las instituciones financieras, sino que también generan Sin embargo, las oportunidades y los desafíos coexisten.
necesidades urgentes para la transformación y mejora de la industria financiera. En la actualidad, los grandes datos se enfrentan a tres problemas teóricos
En la actualidad, los temas de investigación clave para las instituciones importantes [22–24]. * El primero es cómo manejar los datos masivos de
financieras o incluso los departamentos gubernamentales son los siguientes: manera efectiva, el segundo es cómo describir la complejidad y la incertidumbre
cómo investigar y desarrollar tecnologías efectivas de medición del riesgo de los datos masivos, y el tercero es cómo modelar el sistema de datos masivos.
crediticio y análisis de decisiones para big data financiero para dar el salto Con base en el almacenamiento en la nube y la computación en la nube, cómo
tecnológico y promover la transformación y mejora. de la industria financiera. usar la tecnología de la información para manejar datos no estructurados y
Por lo tanto, este documento examina las tecnologías clave de medición del semiestructurados de manera efectiva se ha convertido en un tema de
riesgo crediticio y análisis de decisiones para big data financiero, que conducen investigación científica de vanguardia de interés común. Además, cómo
a mejorar la fuerza impulsora de la innovación tecnológica y promover la explorar los métodos efectivos y ejecutar el modelado del sistema para big
mejora de la industria financiera. *El resto de este documento está organizado data son temas importantes para el descubrimiento de conocimiento en big
de la siguiente manera: la Sección 2 resume la investigación relacionada. La data. *El problema subsiguiente es el de la heterogeneidad de decisión y
sección 3 introduce algunos problemas de investigación. En la Sección 4, se heterogeneidad de datos, la relación entre heterogeneidad de decisión y
proponen algunos desafíos de investigación. En la Sección 5, se presentan heterogeneidad de datos para el descubrimiento de conocimiento y la toma de
futuras direcciones de investigación con respecto a la medición del riesgo decisiones de gestión en big data debe ser estudiada en profundidad. Debido
crediticio y el análisis de decisiones para macrodatos financieros. Finalmente, a la complejidad de los grandes datos, este problema es claramente un tema
la Sección 6 concluye este documento. de investigación importante, que presenta nuevos desafíos para la teoría y la
tecnología de minería de datos [7, 25–27]. En la actualidad, el análisis de la
complejidad de los macrodatos se ha centrado principalmente en conjuntos de
datos específicos y niveles de medición de algoritmos. A nivel de sistema, el
trabajo de analizar la complejidad de los grandes datos, explorar su mecanismo
2. Trabajos relacionados y encontrar los métodos básicos es de gran importancia.

2.1. %e Complejidad de Big Data. *El campo de la ciencia de la complejidad


surgió a finales del siglo XX. Sin embargo, persisten las siguientes preguntas:
¿Qué es la complejidad? ¿Qué es la ciencia de la complejidad? * Siempre ha 2.2. Medición del Riesgo de Crédito. *A lo largo del proceso de investigación
habido cierta controversia en torno a este tema en la academia. Cuando se de la medición del riesgo de crédito, desde el método de medición del riesgo
discute el desarrollo de la ciencia de la complejidad, la tecnología de big data de crédito que inicialmente se basa en el juicio subjetivo de expertos hasta el
se ha desarrollado con vigor y vitalidad. Big data tiene las siguientes cinco modelo moderno de evaluación del riesgo de crédito basado en estadísticas,
características, conocidas como las cinco V: (1) [16] Volumen se refiere a una investigación operativa e inteligencia artificial, el modelo de medición del riesgo
gran cantidad de datos, más de 1000 T o incluso hasta 1 billón de T. (2) de crédito ha desarrollado y mejorado. *La investigación sobre la medición del
Variedad se refiere a una amplia gama de tipos de datos, como imágenes, riesgo de crédito se puede dividir aproximadamente en cinco modelos: modelo
audio, video, registros de red e información de ubicación geográfica. (3) Valor de juicio de experiencia, modelo matemático-estadístico, modelo estructural,
indica que el valor de purificación de datos es bajo; es decir, la densidad del modelo de calificación interna y modelo de inteligencia artificial.
valor de los datos es relativamente baja. (4) La velocidad se refiere a fuertes
requisitos de puntualidad, en el sentido de que la información efectiva debe
recopilarse, procesarse y retroalimentarse a tiempo. (5) La veracidad requiere En el modelo de juicio de experiencia, la tecnología de calificación
una alta precisión, que refleja la calidad de los datos [17, 18]. La complejidad crediticia se basa principalmente en la experiencia de expertos para la calificación.
es uno de los factores clave que restringen la eficiencia y la calidad del Los expertos en crédito califican a los solicitantes de acuerdo con los materiales
procesamiento de big data, y es un factor importante para que big data se del solicitante y algunos elementos del análisis crediticio. *Los métodos
convierta en un problema científico. *El logro representativo de la investigación comúnmente utilizados incluyen el método de análisis de elementos 5C, el
de la complejidad es la teoría del “sistema gigante complejo abierto”, propuesta método de análisis de elementos 5P y el método de análisis de elementos 5W
por Qian [19, 20]. * Los principales logros de esta teoría son el "método de [28]. *Las características del modelo de juicio de experiencia adoptan
integración integral de cualitativo a cuantitativo" y el "sistema de sala de principalmente el método de análisis de expertos. *El responsable de crédito
seminarios de integración integral de la combinación hombre-máquina". hace un juicio subjetivo sobre el estado crediticio del objeto comercial y luego
Después de décadas de desarrollo, se forman la tecnología básica y el sistema toma decisiones crediticias, que tienen una fuerte subjetividad.
de métodos. En los últimos años, con el desarrollo de técnicas de big data, el
proceso práctico de aplicación de big data se ha acelerado gradualmente. A fines de la década de 1960 [29], el modelo matemático-estadístico se
Muchos países han lanzado e implementado estrategias nacionales de desarrolla gradualmente para evitar la influencia subjetiva del juicio empírico.
macrodatos. * Los EE. UU. han tomado los grandes datos como un recurso *Los modelos representativos incluyen el modelo zeta [1], el modelo de análisis
estratégico y han acelerado el intercambio, la apertura, el desarrollo y la discriminante [30], el modelo de análisis de regresión [31–33], el modelo de
aplicación de datos programación matemática [34, 35], el modelo de optimización multiobjetivo [36–
38] y el modelo de árbol de decisión [39].

Con el rápido desarrollo del mercado de capitales, la no intermediación


del financiamiento y la titulización, y la
Machine Translated by Google

Complejidad 3

aparición de muchas herramientas de innovación financiera, la et al. [66] propusieron un nuevo marco de modelado dinámico para
complejidad del riesgo de crédito se hizo más significativa. Para resolver evaluar el riesgo de crédito. Zhang et al. [24] propusieron modelos de
el desarrollo del mercado de capitales y la complejidad del riesgo de aprendizaje de múltiples instancias con datos de transacciones para la
crédito, en la década de 1990 se propone el modelo estructural basado en evaluación del riesgo crediticio. Yamanaka [67] presentó un modelo de
la teoría del mercado de capitales y la teoría de la ciencia de la información, reducción aleatoria para la evaluación del riesgo crediticio de tipo
como el modelo KMV [40], el modelo de métricas crediticias [41], modelo descendente. Canción et al. [68] indicó que los métodos de aprendizaje
de vista de cartera de crédito [42], y modelo de medición de riesgo basado por conjuntos funcionan mejor en la predicción por defecto que las técnicas
en tecnología de valoración de opciones [43, 44]. estadísticas y los clasificadores individuales. Huang et al. [69] propusieron
* El Comité de Basilea lanza el borrador del Nuevo Acuerdo de un método basado en GMM para estimar los parámetros del modelo y
Capital de Basilea en 2001, señalando que los bancos calificados deben probar las restricciones implícitas del modelo para el análisis de
usar el modelo de calificación interna para medir el riesgo crediticio. *La especificaciones de los modelos de riesgo de crédito estructural. Lappas
Oficina del Contralor de la Moneda (OCC) define los componentes clave y Yannacopoulos [70] propusieron un modelo que combina el algoritmo
y las características del sistema de calificación interna en 2003. *Hay genético y el conocimiento experto para la selección de características en
muchas suposiciones en la aplicación de los modelos anteriores, pero los la evaluación del riesgo de crédito [71]. En resumen, la investigación
datos reales son difíciles de ajustar con los propuestos. suposiciones sobre el modelo de medición del riesgo de crédito se ha centrado
Con el desarrollo de la inteligencia artificial y la tecnología informática, el principalmente en la mejora e innovación de los modelos anteriores.
modelo de inteligencia artificial ha comenzado a entrar en el campo de la Debido a que la mayoría de los investigadores se enfocan en diseñar
medición del riesgo de crédito. *Los modelos representativos incluyen el nuevos métodos y desarrollar nuevos modelos [10], rara vez pueden
sistema experto [45], la red neuronal [46], el algoritmo genético [47, 48] y abordar y analizar los resultados de la minería en profundidad, por lo que
la máquina de vectores de soporte (SVM) [49, 50]. muchos usuarios no pueden comprenderlos y usarlos de manera fácil y
efectiva, lo que resulta en un desperdicio de conocimiento y datos. recursos [64].
Además, aunque los principales bancos comerciales, como el Banco
La investigación sobre la medición del riesgo de crédito ha atraído Popular de China, el Banco de China, el Banco Comercial Industrial de
una gran atención en los círculos académicos y de aplicación, y se han China y el Banco de Construcción de China, han desarrollado algunos
obtenido algunos resultados de investigación [51–55]. Altman [29], basado modelos de calificación crediticia adecuados para los sistemas comerciales
en Beaver [56], utilizando la idea discriminante bayesiana y la tecnología de los bancos, la información de datos que establece estos Los modelos
discriminante lineal, estableció el famoso modelo Z-score para juzgar si carecen de precisión debido a la dificultad de compartir datos entre
una empresa incumple o quiebra. En 1977, el modelo Z-score fue ampliado bancos. Además, estos modelos están personalizados para sus propios
por Altman [29] para proponer el modelo zeta. Ohlson [57] tomó la razón sistemas comerciales, por lo que carecen de universalidad.
financiera como índice y aplicó el modelo de regresión logística para Además, en el contexto de la era de los grandes datos financieros, muchos
predecir la probabilidad de incumplimiento empresarial. Altmann et al. [58] estudios no han considerado el entorno de los grandes datos y sus
utilizó una red neuronal para predecir la quiebra y descubrió que el modelo características, y los grandes datos tienen las características de
de red neuronal era superior al método de análisis discriminante heterogeneidad de múltiples fuentes, oportunidad, sociabilidad y
multivariable en el rendimiento. Jarrow y Turnbull [59] emplearon una emergencia, por lo que la investigación enfrenta desafíos nuevos y
técnica de valoración libre de arbitraje para fijar precios de derivados severos. , y la medición del riesgo de crédito se ha vuelto cada vez más
sobre valores financieros sujetos a riesgo crediticio. Vapnik [60] aplicó el compleja. Además, existe un riesgo de toma de decisiones en la selección
método SVM a las alertas tempranas de crisis financieras, debido a su de tecnología de big data. * Por lo tanto, no existe una teoría bien
fuerte operatividad y alta precisión de predicción, y recientemente, el construida sobre la medición del riesgo crediticio y el análisis de decisiones
método SVM ha sido investigado activamente. Sobre la base de la matriz para big data financiero, y no se ha formado un sistema de evaluación
de conversión de crédito, Morgan utilizó la idea del valor en riesgo para científico y efectivo.
calcular la volatilidad del valor de la empresa al considerar la tasa de
pérdida de los préstamos en mora de la empresa y propuso el modelo
Risk-Metrics [41]. Yu et al. [61] propusieron una clasificación SVM de 3. Problemas de investigación
mínimos cuadrados modificada, denominada modelo de clasificación C-
VLSSVM, para evaluar el riesgo de crédito. Yu et al. [62] aplicó un modelo Hasta el momento, la investigación sobre la medición del riesgo de crédito
de red neuronal multiescala para abordar eventos de crisis financiera. Li ha suscitado un amplio debate y estudio, y se han logrado algunos
et al. [63] propusieron un modelo de proceso de software para medir y resultados relacionados [54, 55, 72, 73]. Sin embargo, la mayoría de los
gestionar el riesgo de crédito, en el que el módulo de gestión de riesgos y estudios sobre la medición del riesgo de crédito se han centrado
control de costes ayuda a mejorar la gestión de riesgos en el proceso de principalmente en la mejora e innovación de los modelos. Al mismo
desarrollo de software. Basado en las teorías y métodos de toma de tiempo, algunos investigadores se han centrado en la introducción de
decisiones multicriterio (MCDM) y minería de datos, Kou y Wu [64] principios modelo y otros se han centrado en el análisis comparativo de
propusieron un modelo de jerarquía analítica (AHM) para resolver el varios modelos. Además, los datos entre las instituciones financieras son
problema de selección de modelos de evaluación del riesgo de crédito. difíciles de compartir y la información de datos confiables en el
Florez-Lopez y Ramon-Jeronimo [65] desarrollaron un modelo de bosque establecimiento del modelo carece de precisión. Además, estos métodos
de decisión correlativo y ajustado para la evaluación de estrategias de rara vez combinan los antecedentes del dominio de la aplicación, los
conjunto en la evaluación del riesgo crediticio. Sousa objetivos de toma de decisiones, los conocimientos previos y las
preferencias de los usuarios.
Aunque algunos académicos se dedican a la investigación de grandes
datos financieros, la mayoría de ellos se han centrado en la teoría
Machine Translated by Google

4 Complejidad

e investigación de políticas [13–15]. *Todavía faltan estándares física, ha comenzado a extenderse a más campos, como Internet y
unificados para la adquisición, el almacenamiento y la gestión de big las finanzas. En la era de los grandes datos, la competencia entre
data [74, 75]. Para la financiación de big data, también falta trabajo las instituciones financieras se intensifica en la plataforma de
para analizar big data utilizando las teorías y métodos básicos de la información en red, donde “los datos son los reyes”.
ciencia de sistemas, explorar su mecanismo y encontrar el sistema Big data ha brindado oportunidades sin precedentes para el
de evaluación básico. Además, existe un riesgo de toma de decisiones desarrollo vigoroso de las instituciones financieras [13].
en la selección del modelo de big data. Además, los grandes datos Desde una perspectiva de marketing, el big data puede obtener de
traen desafíos sin precedentes al modelo tradicional de ganancias, la manera más clara y precisa las necesidades y preferencias de los
gestión operativa y el modo de servicio al cliente de las instituciones clientes potenciales para atraer clientes a través del marketing de
financieras. * Por lo tanto, este documento tiene como objetivo precisión o la recomendación inteligente personalizada. Desde la
excavar datos masivos complejos y heterogéneos para que las perspectiva de la gestión de riesgos, a través de la extracción
instituciones financieras desarrollen tecnologías clave para la profunda de datos de transacciones desde múltiples ángulos y
medición del riesgo crediticio y el análisis de decisiones para lograr canales, la industria financiera puede monitorear los riesgos
avances tecnológicos y mejorar la prevención y el control del riesgo financieros en tiempo real y dar alertas tempranas de posibles riesgos
financiero. Además, este documento puede proporcionar una base financieros a tiempo para reducir el costo de la gestión del riesgo
para la toma de decisiones para que las instituciones financieras y crediticio. Sin embargo, cualquier actividad financiera tiene riesgos.
los departamentos gubernamentales formulen políticas financieras Para las entidades financieras, la gestión del riesgo de crédito es la
relevantes y realicen la estrategia de desarrollo de la industria clave de la operación y gestión de las entidades financieras y se ha
financiera impulsada por la innovación tecnológica. convertido en el tema central de la gestión social actual. En la
actualidad, aunque algunos académicos se han dedicado a la
4. Desafíos de la investigación investigación de macrodatos financieros, la mayoría de ellos se ha
centrado en la investigación teórica y de políticas [14], y aún faltan
En los últimos años, se han establecido muchas bases de datos estándares unificados para la adquisición, el almacenamiento y la
grandes en la industria financiera, instituciones de investigación gestión de macrodatos. [74, 75]. Además, para big data financiero, el
científica y departamentos gubernamentales. Se han acumulado trabajo de usar las teorías y métodos básicos de la ciencia de
considerables datos heterogéneos de múltiples fuentes. Con el sistemas para analizar big data, explorar su mecanismo y encontrar
rápido desarrollo de la tecnología informática, ha llegado la era de el sistema de evaluación básico también es ambiguo. Además, cómo
los grandes datos. Big data puede ayudar a extraer el valor de los investigar y desarrollar las tecnologías clave de medición del riesgo
datos y tomar mejores decisiones [76]. La financiación de big data crediticio y análisis de decisiones para big data financiero para dar el
se ha convertido en un tema de investigación candente en los últimos salto tecnológico es un tema de investigación clave para las
años [22, 77]. En febrero de 2011, la revista Science lanzó su primer instituciones financieras y los departamentos gubernamentales.
número especial sobre procesamiento de datos: “Tratar con datos”,
que abordaba una variedad de problemas relacionados con el rápido 5. Direcciones de investigación
crecimiento de los datos. En diciembre del mismo año, publicó otro
número especial para discutir la replicabilidad y reproducción de La investigación de McKinsey mostró que la industria financiera
datos masivos. Ke y Shi [7] señalaron que los grandes datos han ocupó el primer lugar en el índice de valor potencial de big data. Big
atraído cada vez más la atención de la academia y la industria [23]. data ha traído nuevas oportunidades e impulso de desarrollo a la
Como núcleo de la economía moderna, las finanzas son una fuerza industria financiera. *Debe reconocerse plenamente la gran
importante que promueve el desarrollo económico de una región e importancia de los macrodatos. Las direcciones de investigación
incluso de un país. Las instituciones financieras tienen más ventajas futuras se resumen a continuación.
inherentes en las aplicaciones de big data: (1) las empresas
financieras pueden acumular una gran cantidad de datos de alta
densidad de valor, como pasivos, activos, ingresos de capital, 5.1. Investigación teórica sobre el mecanismo de complejidad de la
identidad del cliente y transacciones de pago; (2) las instituciones medición del riesgo de crédito para Big Data financiero. Big data
financieras tienen un presupuesto de capital relativamente suficiente, tiene heterogeneidad de múltiples fuentes, puntualidad, sociabilidad
que no solo puede atraer talento de alto nivel en el campo de los y emergencia; por lo tanto, la investigación sobre la medición del
grandes datos, sino también adaptar fácilmente la última tecnología de grandes
riesgodatos.
de crédito financiero enfrenta nuevos y grandes desafíos. Sin
Según las cinco V de big data y las características de embargo, la mayoría de los investigadores se han centrado en
complejidad, los big data se almacenan principalmente en bases de diseñar nuevos modelos o desarrollar nuevos algoritmos [10],
datos no relacionales, como BigTable de Google, Dynamo de ignorando el entorno de big data y sus características. En vista de
Amazon y HBase de Hadoop, que tienen un diseño de arquitectura flexible.este difícil problema, esta dirección de investigación es llevar a cabo
En 2011, Ghoting et al. [78] propusieron los sistemas SystemML y una investigación teórica sobre el mecanismo de complejidad de la
NIMBLE para diseñar e implementar una serie de primitivas medición del riesgo de crédito financiero. Primero, esta investigación
MapReduce para algoritmos de minería de datos. Además, los es para estudiar la complejidad y la incertidumbre de los grandes
algoritmos, como la agrupación y clasificación de datos, basados en datos, la complejidad del proceso de grandes datos y la complejidad
MapReduce también se han implementado y aplicado en muchos del sistema de conocimiento involucrado en el procesamiento de
campos [32, 79]. Recientemente, el proceso práctico de aplicar big grandes datos. En segundo lugar, esta investigación es discutir e
data se ha acelerado gradualmente. Desde las primeras investigar la connotación básica de datos, información y conocimiento
investigaciones científicas hasta las aplicaciones en los campos de la biología
parayinvestigar profundamente las características de la industria financiera de big da
Machine Translated by Google

Complejidad 5

desafíos del modelo tradicional de medición del riesgo de crédito. el proceso de extraer "conocimiento aproximado" a través de la minería
Finalmente, esta investigación es para discutir más a fondo la característica de datos o el análisis de big data se denomina "minería primaria", luego
esencial del riesgo de crédito financiero en el entorno de big data y llevar el proceso de combinar conocimiento aproximado con conocimiento de
a cabo una investigación teórica sobre el mecanismo de complejidad de dominio cuantificado (por ejemplo, experiencia de expertos, sentido
la medición del riesgo de crédito para big data financiero. común, instinto, conocimiento situacional y preferencias del usuario). )
para producir “conocimiento de decisión” se denomina “minería secundaria”.
Para big data financiero, basado en el método MCDM [25, 80, 81], esta
5.2. Desarrollo Tecnológico de Modelos de Minería de Datos de Medición
dirección de investigación es llevar a cabo minería secundaria y
del Riesgo de Crédito. *La complejidad de los macrodatos es un factor
descubrimiento de conocimiento desde una perspectiva multicriterio,
clave que restringe la eficiencia y la calidad del procesamiento de
multidimensional, multietapa y multiestado para desarrollar nuevos
macrodatos, y también es un factor importante para que los macrodatos
métodos de análisis de decisión para grandes financieros. datos.
se conviertan en un problema científico clave. Frente a los requisitos del
Además, esta investigación se compromete a transformar el conocimiento
análisis de big data, el procesamiento de datos tradicional y los métodos
aproximado de la minería de datos en el conocimiento de toma de
de análisis no pueden satisfacer las necesidades del análisis de datos en
decisiones requerido por los tomadores de decisiones para superar el
el entorno de big data. *Se deben seguir tres principios en el análisis de
modo de toma de decisiones de élite anterior de "intuición y experiencia"
big data: todos los datos, hibridez y correlación. *Estas son también las
que subvierte el modo de pensamiento de investigación tradicional y
características clave que distinguen el análisis de big data del análisis de
transforma el “pensamiento causal” en “pensamiento relevante” en la era
datos tradicional. Como una tecnología importante de procesamiento de
de los grandes datos.
información, la minería de datos tiene como objetivo extraer, extraer e
identificar patrones valiosos, conocimiento potencial y leyes a partir de
datos masivos, para guiar de manera efectiva la toma de decisiones
5.4. Investigación de contramedidas para la transformación y modernización
comerciales y la investigación teórica científica.
de la industria financiera. Con la transformación de la estructura
En esta dirección de investigación, para macrodatos financieros, primero, económica en estructura de consumo, el mercado crediticio original no
esta investigación tiene como objetivo estudiar los factores que influyen
puede satisfacer las demandas de la economía social. Además, existen
en la mejora industrial basada en la tecnología de recopilación,
deficiencias obvias en la cobertura y disponibilidad de fuentes de datos
procesamiento, almacenamiento y gestión de macrodatos para determinar
de investigación de crédito financiero. *La fuerte demanda del mercado
los factores importantes, las áreas clave y las direcciones clave. afectando
plantea un grave desafío para la industria financiera. Al mismo tiempo, en
la innovación de big data en la industria financiera. En segundo lugar,
la era de los grandes datos, la competencia entre las empresas financieras
esta investigación es para filtrar y combinar de manera efectiva los
es cada vez más intensa, y el modo tradicional de toma de decisiones de
indicadores de datos en la plataforma de nube de datos de las tres élite de "intuición y experiencia" ha fallado gradualmente. * Por lo tanto,
dimensiones de crédito personal, crédito empresarial y crédito
en esta dirección de investigación, primero, esta investigación se basa en
gubernamental para establecer un sistema de índice de medición de la teoría de la mejora industrial y la teoría del crecimiento económico,
riesgo crediticio adecuado para la industria financiera. Finalmente, basado
integrando campos científicos cruzados como la minería de datos, MCDM
en modelos de minería de datos, apoyándose en plataformas de
[82, 83], informática, investigación de operaciones e inteligencia artificial
procesamiento de big data (la plataforma de procesamiento fuera de línea para llevar a cabo llevar a cabo una investigación teórica sobre el
de big data, la plataforma de procesamiento interactivo y la plataforma de
mecanismo operativo de la mejora de la industria financiera para big data
procesamiento de flujo), combinado con Python y el entorno del ecosistema
financiero. En segundo lugar, la investigación debe combinar el estado
de big data (Hadoop, Spark, HBase, Hive) , esta investigación tiene como
de desarrollo y las características de la industria financiera para esforzarse
objetivo desarrollar nuevos modelos de minería de datos y tecnologías por explorar las características y la ley operativa de los datos masivos en
para la medición del riesgo de crédito para brindarle al sistema las
el desarrollo y la toma de decisiones de gestión de la industria financiera.
ventajas de escalabilidad y alta disponibilidad para buscar un avance
Finalmente, la investigación tiene como objetivo explorar más a fondo la
técnico para resolver el problema de la medición del riesgo de crédito.
contramedida de desarrollo adecuada para la transformación y mejora de
la industria financiera mediante la prestación de servicios de consultoría
5.3. Desarrollo de Métodos de Análisis de Decisión para Minería de gestión de big data y apoyo a la toma de decisiones.
Secundaria y Descubrimiento de Conocimiento Basado en MCDM. En los
campos de la minería de datos, el aprendizaje automático y el análisis de
big data, muchos investigadores se han centrado principalmente en
diseñar nuevos modelos o desarrollar nuevos algoritmos [10], y rara vez 6. Conclusión
han podido procesar, analizar y mostrar en profundidad los resultados
extraídos. * Por lo tanto, es difícil para los usuarios comprender los El análisis de riesgo de crédito financiero es el trabajo principal y el
resultados extraídos, y la probabilidad de dominar es menor, por lo que eslabón clave de la gestión de riesgos de las instituciones financieras,
los usuarios no pueden dominar y usar los resultados de manera fácil y que está relacionado con la supervivencia de las instituciones financieras
efectiva, lo que provoca el desperdicio de recursos de conocimiento y y la estabilidad social. *La aplicación de big data en la industria financiera
datos. Además, el conocimiento aproximado generado por la minería de ha atraído una atención cada vez mayor. Sin embargo, para el análisis
datos aún debe ser filtrado por los tomadores de decisiones para obtener del riesgo de crédito financiero para big data, no se ha formado ningún
conocimiento útil para la toma de decisiones. * Por lo tanto, cómo integrar sistema científico de evaluación y toma de decisiones. Además, la
aún más el conocimiento del dominio y el conocimiento aproximado en el investigación en este campo se ha centrado mayoritariamente en la
conocimiento de toma de decisiones para guiar la toma de decisiones es mejora e innovación de los modelos y rara vez ha analizado en profundidad
un problema científico reconocido y desafiante. Si los resultados de la minería. Además, la investigación
Machine Translated by Google

6 Complejidad

rara vez ha incorporado los antecedentes del campo de aplicación Referencias


correspondiente, los objetivos de toma de decisiones, los conocimientos
[1] S. Zhang, W. Xiong, W. Ni y X. Li, "Valor de los grandes datos para
previos y las preferencias de los usuarios. Con la profundización gradual
financiar: observaciones sobre una empresa de servicios de crédito por
de la globalización económica, la competencia entre las empresas se
Internet en China", Financial Innovation, vol. 1, pág. 17, 2015.
vuelve cada vez más feroz, y el método tradicional de toma de decisiones
[2] TK Chen, HH Liao y WH Chen, "Heterogeneidad de la capacidad del
de élite de "intuición y experiencia" ha fallado gradualmente. director ejecutivo, capacidad de contratación de la junta y riesgo crediticio",
Revisión de Finanzas y Contabilidad Cuantitativas, vol. 49, núm. 4,
Con el advenimiento de la era de los grandes datos, el costo de la págs. 1005–1039, 2017.
adquisición de datos se está reduciendo. Sin embargo, la cantidad de [3] Q. Zha, G. Kou, H. Zhang et al., "Dinámica de opinión en finanzas y
datos se multiplica exponencialmente y la estructura de datos se vuelve negocios: una revisión de la literatura y oportunidades de investigación".
cada vez más compleja. El pensamiento humano ha pasado del Innovación financiera, vol. 6, pág. 44, 2020.
"pensamiento causal" al "pensamiento de relevancia" en la era de los grandes datos. Jovanovic, S. Nadal, O. Romero, A. Abell´o y BB Quarry, “Quarry: una
[4] P.

Para big data financiero, el trabajo sobre el uso de teorías y métodos plataforma de integración de big data centrada en el usuario”, Information
Systems Frontiers, vol. 23, núm. 1, págs. 9 a 33, 2021.
básicos de ciencia de sistemas para analizar el riesgo de crédito
financiero, explorar su mecanismo complejo y encontrar su sistema de
[5] MM Hasan, J. Popp y J. Ol´ah, “Panorama actual e influencia del big data
evaluación para big data financiero es muy significativo. *Por lo tanto,
en las finanzas”, Journal of Big Data, vol. 7, núm. 1, págs. 21 a 17, 2020.
con base en las principales necesidades de desarrollo económico y
social nacional, este documento examina la investigación teórica y el [6] T. Kariya, Y. Yamamura y K. Inui, “Calificaciones empíricas de riesgo
desarrollo técnico sobre la medición del riesgo de crédito y el análisis de crediticio de bonos corporativos individuales y derivación de estructuras
la toma de decisiones para el big data financiero. Además, se señalan temporales de probabilidades de incumplimiento”, Journal of Risk and
cuatro direcciones de investigación a continuación: primero, considerando Financial Management, vol. 12, núm. 3, págs. 124–129, 2019.
los nuevos requisitos y los nuevos desafíos de las características [7] M. Ke y Y. Shi, "Grandes datos, grandes cambios: en la gestión
complejas de la heterogeneidad de múltiples fuentes, la puntualidad y financiera", Open Journal of Accounting, vol. 03, núm. 04, págs. 77–82,
las cinco V de los grandes datos, una dirección es realizar una 2014.
investigación teórica sobre el mecanismo complejo. de medición del [8] PK Roy y K. Shaw, “Un modelo de calificación crediticia multicriterio para
PYMES que utilizan BWM híbrido y TOPSIS”, Financial Innovation, vol.
riesgo de crédito para macrodatos financieros. En segundo lugar, debido
7, núm. 1, pág. 77, 2021.
a la complejidad de los macrodatos, otra dirección de la investigación es
[9] M. Fleckenstein y FA Longstaff, "*e prima de riesgo de mercado para el
desarrollar nuevos modelos y tecnologías de extracción de datos para la
riesgo de crédito al consumo no garantizado", %e Revisión de estudios
medición del riesgo crediticio a fin de lograr un avance técnico. * En financieros, 2022.
tercer lugar, los resultados de la minería son difíciles de entender, por lo [10] XQ Cheng, SH Liu, XQ Sun et al., "Lucha contra los riesgos financieros
que otra dirección de investigación es llevar a cabo la minería secundaria emergentes en la era de los grandes datos: una revisión en perspectiva",
y el descubrimiento de conocimiento para reconciliar la brecha de Investigación fundamental, vol. 1, no. 5, págs. 595–606, 2021.
conocimiento, con base en métodos MCDM, para superar el modo de [11] WH Jiang, L. Xu, ZS Chen, K. Govindan y KS Chin, "Equilibrio financiero
toma de decisiones de élite anterior de "intuición". y experiencia”, que en una cadena de suministro con restricciones de capital: el impacto de
subvierte el modo de pensamiento de investigación tradicional y la calificación crediticia", Investigación de transporte Parte E: Revisión
transforma el “pensamiento causal” en “pensamiento relevante” en la era de logística y transporte, vol. 157, artículo ID 102559, 2022.

de los grandes datos. En cuarto lugar, dada la teoría de la mejora


[12] L. Yu, L. Yu y K. Yu, "Un paradigma de aprendizaje basado en rasgos
industrial y la teoría del crecimiento económico, la última dirección es
llevar a cabo una investigación de contramedidas sobre la transformación de alta dimensionalidad para la clasificación crediticia de alta dimensión".
Innovación financiera, vol. 7, núm. 1, págs. 32 a 20, 2021.
y mejora de la industria financiera mediante la prestación de servicios de
[13] ME Mccue y AM Mccoy, “*el alcance de los grandes datos en un
soporte de decisiones y consultoría de gestión de big data. medicamento: oportunidades y desafíos sin precedentes”,
Además, la revisión puede contribuir a comprender los temas anteriores, Fronteras en la ciencia veterinaria, vol. 4, pág. 194, 2017.
comprender los problemas actuales, analizar los problemas de [14] B. Tissot, Financial Big Data and Policy Work: Opportunities and
investigación, dominar los desafíos de la investigación y predecir las Challenges, Oficina de Publicaciones de la Unión Europea, Luxemburgo,
direcciones futuras de la investigación. Además, este documento también 2019.
puede proporcionar una base para la toma de decisiones para que las [15] ZB Zhou, M. Gao, HL Xiao, R. Wang y WB Liu, "Big data y optimización
instituciones financieras y los departamentos gubernamentales formulen de cartera: un enfoque novedoso que integra DEA con múltiples fuentes
políticas relevantes de la industria financiera para promover un gran de datos", Omega, vol. 104, pág. 102479, 2021.

avance en el desarrollo de la industria financiera [84–88].


[16] AN Berger y WS Frame, “Calificación crediticia y disponibilidad de crédito
para pequeñas empresas”, Journal of Small Business Management,
Disponibilidad de datos vol. 45, núm. 1, págs. 5 a 22, 2007.
[17] D. Howe, M. Costanzo, P. Fey et al., "Grandes datos: el futuro de la
*Los datos utilizados para respaldar los hallazgos de este estudio se biocuración", Nature, vol. 455, págs. 47 a 50, 2008.
incluyen en el artículo.
[18] A. Gandomi y M. Haider, “Más allá de la exageración: conceptos,
métodos y análisis de big data”, International Journal of Information
Conflictos de interés Management, vol. 35, núm. 2, págs. 137 a 144, 2015.
[19] JY Yu, "Investigación de Qian Xuesen sobre sistemas gigantes complejos
*Los autores declaran no tener conflictos de intereses económicos abiertos", Teoría y práctica de ingeniería de sistemas, vol. 5, págs. 8 a
relacionados con el artículo. 12, 1992.
Machine Translated by Google

Complejidad 7

[20] N. Wang, “*la creación de un héroe intelectual: narraciones chinas de qian gestión”, Annals of Operations Research, vol. 238, núm. 1-2, págs. 615–635,
xuesen”, %e China Quarterly, vol. 206, págs. 352 a 371, 2011. 2016.
[39] NO Bakir, “Un modelo de árbol de decisiones para evaluar contramedidas para
[21] K. Fanning y E. Drogt, "Grandes datos: nuevas oportunidades para fusiones y asegurar la carga en los puertos de entrada del sudoeste de los Estados
adquisiciones", Journal of Corporate Accounting & Finance, vol. 25, núm. 2, Unidos”, Decision Analysis, vol. 5, núm. 4, págs. 230 a 248, 2008.
págs. 27 a 34, 2014. [40] KMV Corporate, Credit Monitor Overview, San Francisco California, 1993.
[22] Y. Shi, “Grandes datos y nuevos desafíos para la ciencia y la tecnología”,
Ciencia, Tecnología y Desarrollo, vol. 10, núm. 1, págs. 25 a 30, 2014a. [41] JP Morgan, “Documento técnico de CreditMetrics”, Jp Morgan, vol. 5, núm. 3,
págs. 48–51, 1997.
[23] Y. Shi, "Historia de big data, estado actual y desafíos futuros", %e Bridge, vol. 44, [42] T. Wilsom, Modelado de riesgo crediticio: un nuevo enfoque, Mckinsey Inc, Nueva
núm. 4, págs. 4–11, 2014b. York, 1997.
[24] T. Zhang, W. Zhang, Xu. Wei y H. Hao, "Aprendizaje de múltiples instancias para [43] FA Longstaff y EF Schwartz, "Un enfoque simple para valorar la deuda de tasa
la evaluación del riesgo crediticio con datos de transacciones" fija y flotante riesgosa", %e Journal of Finance, vol. 50, núm. 3, págs. 789–819,
Sistemas basados en el conocimiento, vol. 161, págs. 65 a 77, 2018. 1995.
[25] W. Wu, Z. Xu, G. Kou y Y. Shi, "Apoyo a la toma de decisiones para la evaluación [44] ZS Chen, X. Zhang, K. Govindan, XJ Wang y KS Chin, “*Selección de proveedores
de algoritmos de agrupamiento basados en MCDM" de logística inversa de terceros: un enfoque de toma de decisiones basado en
Complejidad, vol. 2020, n. 2, págs. 1 a 17, 2020b. análisis semántico computacional basado en múltiples perspectivas y múltiples
[26] HY Qiu, C. Liu y XM Zhang, "Diseño inteligente del cronograma de entrenamiento atributos, ” Sistemas Expertos con Aplicaciones, vol. 166, pág. 114051, 2021.
de tenistas basado en grandes datos de complejidad", Complexity, vol. 2021, n.
1, págs. 1 a 11, 2021. [45] A. Bahrammirzaee, AR Ghatari, P. Ahmadi y K. Madani, “Sistema inteligente
[27] ME Zmijewski, “Cuestiones metodológicas relacionadas con la estimación de los híbrido de clasificación crediticia que utiliza un sistema experto y redes
modelos de predicción de problemas financieros”, Journal of Accounting neuronales artificiales”, Applied Intelligence, vol. 34, núm. 1, págs. 28 a 46,
Research, vol. 22, págs. 59–86, 1984. 2011.
[28] SM Abbadi y SMA Karsh, “Métodos de evaluación del riesgo crediticio utilizados [46] JA Marshall, "Redes neuronales para el reconocimiento de patrones",
por los bancos comerciales en Palestina”, International Research Journal of Redes neuronales, vol. 8, núm. 3, págs. 493-494, 1995.
Finance and Economics, vol. 111, págs. 146 a 159, 2013. [47] J. Galindo y P. Tamayo, “Evaluación del riesgo crediticio utilizando aprendizaje
estadístico y automático: metodología básica y aplicaciones de modelado de
[29] EI Altman, “Razones financieras, análisis discriminatorio y predicción de la quiebra riesgos”, Computational Economics, vol. 15, núm. 1/2, págs. 107 a 143, 2000.
corporativa”, %e Journal of Finance, vol. 23, núm. 4, págs. 589–609, 1968.
[48] P. Pawiak, M. Abdar, J. Pawiak, V. Makarenkov y UR Acharya, "DGHNL: una
[30] C. Fraley y AE Raftery, “Conglomerados basados en modelos, análisis nueva red jerárquica genética profunda de estudiantes para la predicción de la
discriminatorio y estimación de la densidad”, Journal of the American Statistical calificación crediticia", Ciencias de la información, vol. 516, págs. 401–418,
Association, vol. 97, núm. 458, págs. 611–631, 2020.
2002. [49] Z. Huang, H. Chen, CJ Hsu, WH Chen y S. Wu, "Análisis de calificación crediticia
[31] JC Wiginton, “Una nota sobre la comparación de los modelos logit y discriminante con máquinas de vectores de soporte y redes neuronales: un estudio
del comportamiento del crédito al consumo”, Journal of Financial and Quantitative comparativo de mercado", Decision Support Systems, vol. 37, núm. 4, págs.
Analysis, vol. 15, núm. 3, págs. 757–770, 1980. 543–558, 2004.
[50] JH Trustorff, PM Konrad y J. Leker, “Predicción del riesgo crediticio utilizando
[32] F. Campobasso y A. Fanizzi, "Medidas de bondad de ajuste y selección de máquinas de vectores de soporte”, Revisión de contabilidad y finanzas
modelos en un análisis de regresión de mínimos cuadrados difusos" cuantitativas, vol. 36, núm. 4, págs. 565–581, 2011.
Estudios en Inteligencia Computacional, vol. 465, págs. 241 a 257, 2013.
[51] M. Jacobs Jr, "*e impacto de las burbujas de precios de activos en las medidas
[33] C. Jiang, Z. Wang y H. Zhao, “Un modelo de cura mixta basado en la predicción de riesgo crediticio", Journal of Financial Risk Management, vol. 04, núm. 04,
y su aplicación en la calificación crediticia”, European Journal of Operational págs. 251–266, 2015.
Research, vol. 277, núm. 1, págs. 20 a 31, 2019. [52] W. Wu y DG Mcmillan, “Vínculos dinámicos en el riesgo crediticio: modelado de
la correlación variable en el tiempo entre el dinero y los mercados de derivados
[34] Y. Peng, G. Kou, Y. Shi y Z. Chen, "Un modelo de programación cuadrático durante el período de crisis”, Journal of Risk, vol. 16, núm. 2, págs. 51 a 59,
convexo de criterios múltiples para el análisis de datos crediticios" 2013.
Sistemas de apoyo a la decisión, vol. 44, núm. 4, págs. 1016–1030, 2008. [53] A. Pichler, “Una comparación cuantitativa de medidas de riesgo,”
[35] Z. Chen, Y. Li, Y. Wu y J. Luo, “*la transición de la banca tradicional a las finanzas Anales de Investigación de Operaciones, vol. 254, núm. 1 y 2, págs. 251 a 275,
de Internet móvil: una perspectiva de innovación organizacional: un estudio 2017.

comparativo de Citibank e ICBC”, Financial Innovation, vol. 3, núm. 1, pág. 12, [54] R. Chen, Z. Wang, L. Yang, CT Ng y TCE Cheng, “Un estudio sobre el riesgo
2017. operativo y la estimación del riesgo de la cartera de crédito mediante el análisis
[36] G. Kou, Y. Peng, Y. Shi, M. Wise y W. Xu, "Descubriendo el comportamiento de de datos”, Decision Sciences, vol. 53, núm. 1, págs. 84–123, 2020, https://
los titulares de tarjetas de crédito mediante la programación lineal de múltiples doi.org/10.1111/deci.12473.
criterios", Annals of Operations Research, vol. 135, núm. 1, págs. 261 a 274, [55] M. Mahbobi, S. Kimiagari y M. Vasudevan, "Clasificación del riesgo crediticio: un
2005. algoritmo integrado de precisión predictiva que utiliza redes neuronales
[37] Y. Shi, Y. Peng, G. Kou y Z. Chen, "Clasificación de cuentas de tarjetas de crédito artificiales y profundas", Annals of Operations Research, 2021.
para inteligencia comercial y toma de decisiones: un enfoque de programación
cuadrática de criterios múltiples", Revista internacional de tecnología de la [56] WH Beaver, “Razones financieras de Beaver como predictores de fallas”, Journal
información y toma de decisiones , vol. 04, núm. 04, págs. 581–599, 2005. of Accounting Research, vol. 4, págs. 71–102, 1966.
[57] JA Ohlson, "Razones financieras y la predicción probabilística de quiebra",
[38] W. Wu y Y. Peng, “Extensión del análisis relacional gris para facilitar el consenso Journal of Accounting Research, vol. 18, núm. 1, págs. 109–131, 1980.
de grupo para emergencias por derrames de petróleo
Machine Translated by Google

8 Complejidad

[58] EI Altman, G. Marco y F. Varetto, “Diagnóstico de dificultades corporativas: [75] SY Wang, “Una entrevista con Shouyang Wang: la frontera de investigación
comparaciones mediante análisis discriminante lineal y redes neuronales de la previsión económica y financiera basada en grandes datos”, Data
(la experiencia italiana)”, Journal of Banking & Finance, vol. 18, núm. 3, Science and Management, vol. 1, no. 1, págs. 10 a 12, 2021.
págs. 505 a 529, 1994. ´ ´
[59] RA Jarrow y SM Turnbull, “Precio de derivados sobre valores fi nancieros [76] A. Perez-Mart ´ÿn, A. Perez-Torregrosa y M. Vaca, “Técnicas de Big Data
sujetos al riesgo de crédito”, %e Journal of Finance, vol. 50, núm. 1, para medir el riesgo bancario de crédito en préstamos con garantía
págs. 53 a 85, 1995. hipotecaria”, Journal of Business Research, vol. 89, págs. 448–454, 2018.
[60] VN Vapnik, Naturaleza de la teoría del aprendizaje estadístico, Springer,
Nueva York, 1995. [77] AA Bressan, “Big data como una herramienta revolucionaria en finanzas,”
[61] L. Yu, S. Wang y J. Cao, “Un clasificador de máquina vectorial de soporte Revista de innovación financiera, vol. 1, no. 2, págs. 1 a 7, 2015.
de mínimos cuadrados modificado con aplicación al análisis de riesgo [78] A. Ghoting, R. Krishnamurthy, E. Pednault et al., "SystemML: aprendizaje
crediticio”, Revista internacional de tecnología de la información y toma automático declarativo en MapReduce", en Proceedings of the 2011 IEEE

de decisiones, vol. 08, núm. 04, págs. 697–710, 2009. 27th International Conference on Data Engineering (ICDE), pp. 231–242,

[62] L. Yu, S. Wang, KK Lai y F. Wen, "Un paradigma de aprendizaje de red Hannover, Alemania, 2011.
[79] JJ Grefenstette, "Asignación de créditos en sistemas de descubrimiento de
neuronal multiescala para la previsión de crisis financieras"
reglas basados en algoritmos genéticos", Machine Learning, vol. 3, núm.
Neurocomputación, vol. 73, núm. 4–6, págs. 716–725, 2010.
2-3, págs. 225–245, 1988.
[63] J. Li, M. Li, D. Wu y H. Song, “Un modelo integrado de medición y
[80] W. Wu y Z. Xu, “Método TODIM híbrido con un conjunto nítido de términos
optimización de riesgos para la gestión confiable de procesos de
lingüísticos de probabilidad y número para la evaluación de situaciones
software”, Information Sciences, vol. 191, núm. 1, págs. 47 a 60, 2012.
de epidemias urbanas”, Complexity, vol. 2020, n. 4, págs. 1 a 11, 2020.

[64] G. Kou y W. Wu, “Un modelo de jerarquía analítica para la selección de


[81] W. Wu, Z. Xu y GK Kou, “Evaluación de la toma de decisiones grupales
algoritmos de clasificación en el análisis de riesgo de crédito,”
basada en preferencias grupales en un entorno de criterios múltiples”,
Problemas matemáticos en ingeniería, vol. 2014, núm. 11 y 12, págs. 1 a
Desarrollo tecnológico y económico de la economía, vol. 26, núm. 6, págs.
7, 2014.
1187–1212,¨ 2020a.
[65] R. Florez-Lopez y JM Ramon-Jeronimo, “Mejorando la precisión y la
[82] G. Kou, O. Olgu Akdeniz, H. Dinçer y S. Y¨uksel, “Inversiones fintech en
interpretabilidad de las estrategias de conjunto en la evaluación del riesgo
bancos europeos: un enfoque híbrido multidimensional difuso de toma de
crediticio. Una propuesta de bosque de decisiones correlativamente
decisiones de TI2”, Financial Innovation, vol. 7, núm. 1, págs. 39–28,
ajustada”, Expert Systems with Applications, vol. 42, núm. 13, págs. 5737– 2021a.
5753, 2015. [83] G. Kou, H. Xiao, M. Cao y LH Lee, “Asignación óptima de presupuesto
[66] MR Sousa, J. Gama y E. Brandão, “Un nuevo marco de modelado dinámico informático para el algoritmo genético evaluado por vectores en la
para la evaluación del riesgo crediticio”, Sistemas expertos con optimización de simulación multiobjetivo”, Automatica, vol. 129, pág.
aplicaciones, vol. 45, págs. 341 y 351, 2016. 109599, 2021b.
[67] S. Yamanaka, "Modelo de reducción aleatoria con un factor de vulnerabilidad [84] M. Cao, R. Chychyla y T. Stewart, "Análisis de big data en auditorías de
de calidad crediticia truncado: aplicación a la evaluación de riesgo estados financieros", Accounting Horizons, vol. 29, núm. 2, págs. 423–
crediticio de tipo descendente", International Journal of Financial 429, 2015.
Engineering, vol. 06, núm. 03, artículo ID 1950024, 2019. [85] WS Frame y L. Woosley, “Calificación crediticia y disponibilidad de crédito
[68] Y. Canción, YY. Wang, X. Ye, DJ Wang, YQ Yin y YZ Wang, "Aprendizaje para pequeñas empresas en áreas de ingresos bajos y moderados”,
de conjunto de vistas múltiples basado en la distancia al modelo y la Financial Review, vol. 39, núm. 1, págs. 35 a 54, 2004.
agrupación adaptativa para la evaluación del riesgo crediticio
desequilibrado en préstamos P2P", Ciencias de la información, vol. 525, [86] Z. Lin, AB Whinston y S. Fan, “Aprovechar las finanzas de Internet con una
núm. 4, págs. 182 a 204, 2020. gestión innovadora del crédito cibernético”, Financial Innovation, vol. 1,
[69] JZ Huang, Z. Shi y H. Zhou, “Análisis de especificación de modelos de pág. 5, 2015.
riesgo de crédito estructural”, Review of Finance, vol. 24, núm. 1, págs. [87] X. Wu, X. Zhu, GQ Wu y W. Ding, "Minería de datos con macrodatos", IEEE
45–98, 2020. Transactions on Knowledge and Data Engineering, vol. 26, núm. 1, págs.
[70] PZ Lappas y AN Yannacopoulos, “Un enfoque de aprendizaje automático 97–107, 2014.
que combina el conocimiento experto con algoritmos genéticos en la [88] W. Wu, G. Kou, Y. Peng y D. Ergu, “Mejora en la toma de decisiones del
selección de funciones para la evaluación del riesgo de crédito”, Applied grupo AHP para la selección de estrategias de inversión”, Desarrollo
Soft Computing, vol. 107, artículo ID 107391, 2021. tecnológico y económico de la economía, vol. 18, núm. 2, págs. 299–316,
[71] RA Jarrow y D. Lando, “Un modelo de Markov para la estructura temporal 2012.
de los diferenciales de riesgo crediticio”, Revisión de estudios financieros,
vol. 10, núm. 2, págs. 481–523, 1997.
[72] DE Allen, RJ Powell y AK Singh, “Llévelo al límite: aplicaciones innovadoras
de CVaR para la medición extrema del riesgo crediticio”, European
Journal of Operational Research, vol. 249, núm. 2, págs. 465–475, 2016.

[73] M. Gubareva y MR Borges, “Replanteamiento de la gestión del capital


económico a través del tratamiento integrado basado en derivados de la
tasa de interés y el riesgo crediticio”, Annals of Operations Research, vol.
266, núm. 1 y 2, págs. 71 a 100, 2017.
[74] C. Liu y CO Sergeevna, "Para la gestión de depuración inteligente de la
ingeniería petrolera en alta mar con big data"
Revista de sistemas inteligentes y difusos, vol. 40, núm. 4, págs. 6091–
6101, 2021.

También podría gustarte