Está en la página 1de 2

Traducido del inglés al español - www.onlinedoctranslator.

com

Gestión y ciencia de datos 3 (2021) 1–2

Listas de contenidos disponibles enCienciaDirecta

Gestión y ciencia de datos


revista Página de inicio:www.keaipublishing.com/en/journals/data-science-and-management

Editorial

Cuatro tareas principales de la ciencia de datos

La ciencia de datos es una teoría científica y un sistema tecnológico que “hace y roles clave en la promoción del progreso científico y tecnológico y la solución de
que los datos sean útiles” (Xu et al., 2021). Los datos son registros fragmentados problemas importantes en el mundo real.
de la vida real (el mundo físico y las actividades humanas) y resultados
digitalizados del mundo real. “Hacer que los datos sean útiles” se refiere 1. Explorar la estructura y las características del espacio de datos
principalmente al objetivo científico de reconocer y manipular el mundo real
mediante la recopilación, recopilación, procesamiento y análisis de los datos El espacio de datos es la totalidad de los datos formados por el mundo real digitalizado, que
fragmentados que reflejan el mundo real. también es la totalidad de los objetos de investigación de la ciencia de datos. La investigación en
Un principio fundamental de la ciencia de datos es que los datos se ciencia de datos hoy en día se centra básicamente en cómo usarlo como una herramienta para el
consideran como un elemento del ciberespacio, mientras que la sociedad descubrimiento de conocimiento, y apenas considera el espacio de datos en sí mismo como el
humana, el mundo físico y el ciberespacio (o el espacio de datos, el espacio principal objeto de investigación. El núcleo del almacenamiento y procesamiento de big data
de información) se consideran los componentes del mundo ternario que radica en cómo se estructuran y formalizan los datos. Mientras que la esencia de la formalización
somos. in. Sus conexiones e interacciones en este mundo ternario definen es buscar la representación matemática de los datos, la clave de la estructuración es establecer
las características técnicas del desarrollo social. Por ejemplo, la digitalización una dimensión mínima común que permita expresar todo tipo de datos en el espacio
(digitalización) es el enfoque básico para percibir la sociedad humana y el matemático. Esperamos ver que además de las herramientas analíticas como los espacios
mundo físico; la ciberización es el enfoque básico para conectar la sociedad matemáticos, también se estudie la estructura algebraica del espacio de datos. Complejidad de
humana al mundo físico; y la inteligenteización es la forma en que el datos e incertidumbre en el espacio de datos, especialmente cómo se miden, evolucionan y
ciberespacio actúa sobre el mundo físico y la sociedad humana. La utilizan, debe seguir siendo un objeto principal de la investigación del espacio de datos. El
digitalización, la ciberización y la inteligencia son las características objetivo fundamental de la investigación del espacio de datos es identificar nuevos avances para
destacadas de la nueva ronda de revolución tecnológica,xi, 2019). Con tal el análisis de big data y proporcionar nuevos marcos, nuevas herramientas, nuevos métodos y
epistemología como guía, se espera que la ciencia de datos siente las bases nuevas tecnologías para un análisis y procesamiento de datos efectivos. Toda investigación a
científicas para las aplicaciones de big data. Se espera que la ciencia de favor de este objetivo debe ser fomentada y potenciada.
datos logre grandes avances en las siguientes áreas: (i) la estructura
matemática del espacio de datos, las características de distribución y las
leyes de evolución (a nivel de ciencia de datos); (ii) el mecanismo y los 2. Establecer estadísticas de big data
principios de generación de datos, la relación de espejo con el mundo real,
las plataformas de operación virtual, las interfaces físico-virtual/hombre- La estadística siempre ha sido considerada como una disciplina que conduce y
máquina y los principios de visualización (en el nivel de conexiones del orienta a las personas en el análisis y uso de datos. Su principal connotación es estudiar
mundo ternario); (iii) el mecanismo y los métodos para transformar datos en la recolección, procesamiento, análisis e interpretación de datos (Dono Ho, 2017).
información, información en conocimiento y conocimiento en toma de Tradicionalmente, motivados por preguntas de investigación específicas, los datos se
decisiones (a nivel de análisis y procesamiento de datos); (iv) teorías y obtienen a través de métodos de muestreo y encuestas, y luego se modelan y analizan
métodos básicos relacionados con la capacidad de aprendizaje y la teoría del para sacar conclusiones que serán verificadas. En la era del big data, poseer big data es
aprendizaje, la interpretación de datos y la semántica, una característica natural y una tarea eterna interpretar el big data, lo que exige un
La ciencia de datos ha logrado logros extraordinarios en una amplia gama de nuevo paradigma de “datos antes de los problemas”. Este nuevo paradigma cambiará
campos. En particular, se ha logrado un progreso deslumbrante en el reconocimiento fundamentalmente el objeto de la investigación estadística. Este cambio fundamental
científico y la utilización de big data, métodos de análisis estadístico, almacenamiento y impulsará la transformación drástica de las estadísticas a la ciencia de datos. Durante un
computación basados en datos, aprendizaje automático y aplicación y práctica de proceso de transformación de este tipo, es necesario aclarar con urgencia algunos
inteligencia artificial. Sin embargo, básicamente, estos logros deberían atribuirse en gran puntos básicos que son direccionales y fácilmente engañosos. El primero es el proceso
medida a los avances en disciplinas relacionadas, como la estadística, la informática y el estadístico. ¿Es necesario que cambie el proceso estadístico a medida que cambia el
aprendizaje automático, pero su dependencia y correlación intrínsecas con la ciencia de objeto de investigación? En caso afirmativo, ¿Cuál es el proceso apropiado para
datos son insuficientes. Los científicos de datos esperan que las perspectivas y métodos interpretar Big Data? El segundo es el papel de las estadísticas. Las estadísticas
únicos de la ciencia de datos le permitan dar forma a nuevas teorías científicas más reconocen el mundo a través de probabilidades y correlaciones. ¿Traerá el big data una
importantes, nuevos métodos cognitivos y nuevas aplicaciones tecnológicas, que juegan revolución cognitiva? Dado que los grandes datos pueden ser tan "grandes" como el
un papel único. tamaño de la

Revisión por pares bajo la responsabilidad de la Universidad Xi'an Jiaotong.

https://doi.org/10.1016/j.dsm.2021.06.003 Recibido el 27 de junio


de 2021; Aceptado el 28 de junio de 2021 Disponible en Internet el
1 de julio de 2021
2666-7649/©2021 Universidad Xi'an Jiaotong. Servicios de publicación de Elsevier BV en nombre de KeAi Communications Co. Ltd. Este es un artículo de acceso abierto bajo la licencia CC
BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/4.0/).
Editorial Gestión y ciencia de datos 3 (2021) 1–2

En su totalidad, los problemas se pueden resolver a través de consultas, ¿todavía aprendizaje. En la actualidad, uno de los principales obstáculos en la aplicación de la
necesitamos estadísticas? La última es la tarea central de las estadísticas. ¿Es realmente inteligencia artificial es que la mayoría de los algoritmos centrales y los algoritmos
innecesario el análisis de causalidad? ¿Se puede reemplazar el análisis de causalidad por básicos conocidos son ineficaces para el big data real. La ventaja única del aprendizaje
el análisis de correlación? En los últimos años, ha habido muchas discusiones sobre las profundo radica en su sólida capacidad de modelar cualquier dato complicado. Siempre
tres preguntas anteriores a nivel epistemológico, pero se han hecho pocos intentos a que se suministren suficientes muestras para la capacitación, es capaz de aprender,
nivel científico. Es una tarea urgente para la ciencia de datos establecer nuevas teorías y aplicar y, por lo tanto, proporcionar una solución universal basada en IA. Sin embargo,
métodos estadísticos con una cobertura más amplia y una mayor efectividad para hacer también tiene un defecto fatal porque el diseño de la estructura de la red tiende a ser
frente a los desafíos de los grandes datos. más artístico que científico (difícil de diseñar), y el resultado no es interpretable (difícil de
explicar). El entrenamiento de muestra basado en big data puede ser engañoso. También
3. Innovar las tecnologías de almacenamiento y computación vale la pena estudiar la estabilidad del aprendizaje profundo, que se utiliza para revelar si
hay pequeños cambios en los resultados de aprendizaje de la red cuando hay pequeños
Los grandes datos tienen algunas características destacadas, como gran escala, tipos cambios en el conjunto de entrenamiento. Esta dirección de investigación juega un papel
diversificados, cambios rápidos y baja densidad de valor. Por lo tanto, las computadoras importante en la comprensión y mejora del engaño del aprendizaje profundo.
enfrentan desafíos en varios pasos de la cadena de valor de los datos, incluida la adquisición, el
almacenamiento y el cómputo de big data. La computabilidad y la complejidad computacional La ciencia de datos es una disciplina única que tiene una variedad de
son cuestiones fundamentales en las ciencias de la computación. Sin embargo, en el escenario de características nuevas diferentes en comparación con otras. Tales ejemplos
big data, la escala de datos en sí misma tiende a aumentar exponencialmente, dejando atrás el incluyen la transformación del modo de pensamiento (del paradigma del
crecimiento del poder de cómputo. En este punto, debemos prestar atención a si la teoría de la conocimiento al paradigma de los datos), la transformación de la relación sujeto-
complejidad computacional que no considera las leyes de crecimiento de la escala de datos en las objeto entre los datos y la tecnología (de orientado a la tecnología a orientado a
teorías computacionales tradicionales sigue siendo válida o no. También debemos centrarnos en los datos), la transformación de las pautas de aplicación de datos (del idealismo
la complejidad computacional integrada cuando el almacenamiento de datos, los métodos de atrás al realismo), el objetivo principal del desarrollo de productos de datos
importación/exportación de datos y el cómputo están estrechamente relacionados. Aparte de la (siendo los datos el foco principal de innovación de los productos tradicionales) y
complejidad computacional, La ciencia de datos también necesita explorar la complejidad del los tres elementos de la ciencia de datos (teoría, práctica y esencia). Por lo tanto,
propio espacio de datos y la complejidad de los modelos basados en datos. La ciencia de datos en lugar de simplemente duplicar la experiencia de las disciplinas tradicionales, la
no puede confiar simplemente en aumentar el tamaño de los datos o los parámetros del modelo investigación en ciencia de datos debe mostrar respeto por sus misiones y
para lograr una ligera mejora en las capacidades del modelo. Cuando la arquitectura tradicional atributos especiales.
de Von Neumann carga con frecuencia datos en el procesador, aumentarán los retrasos en el
procesamiento de datos y los problemas de pared de memoria. Una arquitectura integrada de Declaración de competencia de intereses
almacenamiento y computación proporciona un enfoque eficaz para abordar los problemas de
pared de memoria. Su concepto central es retener datos en la memoria para el cálculo, lo que El autor declara que no existen conflictos de intereses.
reduce la demora en el análisis y procesamiento de datos. Sin embargo, todavía quedan muchos
problemas por resolver en el estudio teórico básico del almacenamiento y la computación Referencias
integrados.
Donoho, D., 2017. 50 años de ciencia de datos. J. Cómputo. Gráfico de estadísticas 26 (4), 745–
766. Xu, Z., 2019.http://media.people.com.cn/n1/2019/0301/c40606-30951460.html.
(Consultado el 21 de mayo de 2020).
4. Sentar una base sólida para la inteligencia artificial Xu, Z., Tang, N., Xu, C., Cheng, X., 2021. Ciencia de datos: connotación, métodos, tecnología
gias y desarrollo. Gestión y ciencia de datos 1 (1), 32–37.
La inteligencia artificial es una tecnología representativa que implementa la cadena
de valor de los datos y demuestra el valor de los datos. Existen cuellos de botella basados Zong Ben Xu
en estadísticas en muchos análisis de big data en la investigación de vanguardia para las Escuela de Matemáticas y Estadística, Universidad Xi'an Jiaotong, Xi'an,
principales demandas nacionales y la ciencia crítica. El núcleo de la inteligencia artificial 710049, China
es el algoritmo, y el núcleo del algoritmo es una gran máquina basada en datos Dirección de correo electrónico:zbxu@xjtu.edu.cn.

También podría gustarte