Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DP-100
Número: DP-100
Puntaje de aprobación: 800
Límite de tiempo: 120 minutos
Versión del archivo: 1
DP-100
https://www.gratisexam.com/
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Conjunto de preguntas 1
PREGUNTA 1
Está desarrollando un taller práctico para presentar Docker para Windows a los asistentes.
Debe asegurarse de que los asistentes al taller puedan instalar Docker en sus dispositivos.
¿Qué dos componentes de requisitos previos deben instalar los asistentes en los dispositivos? Cada respuesta correcta presenta parte de la solución.
Respuesta correcta: CE
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: C: Asegúrese de
que su sistema Windows sea compatible con la tecnología de virtualización de hardware y que la virtualización esté habilitada.
Asegúrese de que el soporte de virtualización de hardware esté activado en la configuración del BIOS. Por ejemplo:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
E: Para ejecutar Docker, su máquina debe tener un sistema operativo de 64 bits con Windows 7 o superior.
Referencia:
https://docs.docker.com/toolbox/toolbox_install_windows/
https://blogs.technet.microsoft.com/canitpro/2015/09/08/step-by-step-habilitating-hyper-v-for-use-on-windows-10/
PREGUNTA 2
Planea crear un entorno de ciencia de datos en equipo. Los datos para los modelos de entrenamiento en canalizaciones de aprendizaje automático tendrán un tamaño de más de 20 GB.
Los dispositivos personales deben admitir la actualización de canalizaciones de aprendizaje automático cuando se conectan a una red.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
C. Azure Databricks
D. Servicio Azure Kubernetes (AKS)
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La máquina virtual
de ciencia de datos (DSVM) es una imagen de máquina virtual personalizada en la nube Azure de Microsoft creada específicamente para hacer ciencia de datos. Caffe2 y Chainer son compatibles con
DSVM.
DSVM se integra con Azure Machine Learning.
Respuestas incorrectas:
B: utilice Machine Learning Studio cuando desee experimentar con modelos de aprendizaje automático de forma rápida y sencilla, y los algoritmos de aprendizaje automático integrados son suficientes
para sus soluciones.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/data-science-virtual-machine/overview
PREGUNTA 3
Está implementando un modelo de aprendizaje automático para predecir los precios de las acciones.
Debe crear una máquina virtual que esté preconfigurada con las herramientas necesarias.
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: En DSVM, sus
modelos de entrenamiento pueden usar algoritmos de aprendizaje profundo en hardware basado en unidades de procesamiento de gráficos (GPU).
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PostgreSQL está disponible para los siguientes sistemas operativos: Linux (todas las distribuciones recientes), instaladores de 64 bits disponibles para macOS (OS X) versión 10.6 y posteriores – Windows
(con instaladores disponibles para la versión de 64 bits; probado en las últimas versiones y de vuelta a Windows 2012 R2.
Respuestas incorrectas:
B: Azure Geo AI Data Science VM (Geo-DSVM) ofrece capacidades de análisis geoespacial de Data Science VM de Microsoft. Específicamente, esta máquina virtual amplía los kits de herramientas de inteligencia
artificial y ciencia de datos en la máquina virtual de ciencia de datos al agregar el sistema de información geográfica ArcGIS Pro líder en el mercado de ESRI.
C, D: DLVM es una plantilla sobre la imagen de DSVM. En cuanto a los paquetes, los controladores de GPU, etc., están todos en la imagen de DSVM. Principalmente, es por conveniencia durante la creación,
donde solo permitimos que se cree DLVM en instancias de VM de GPU en Azure.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/data-science-virtual-machine/overview
PREGUNTA 4
Está desarrollando modelos de aprendizaje profundo para analizar tipos de datos semiestructurados, no estructurados y estructurados.
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
Azure Cognitive Services amplía la cartera en evolución de API de aprendizaje automático de Microsoft y permite a los desarrolladores agregar fácilmente funciones cognitivas, como
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
detección de emociones y video; reconocimiento facial, del habla y de la vista; y la comprensión del habla y el lenguaje – en sus aplicaciones. El objetivo de Azure Cognitive Services es ayudar a los
desarrolladores a crear aplicaciones que puedan ver, oír, hablar, comprender e incluso comenzar a razonar. El catálogo de servicios dentro de Azure Cognitive Services se puede categorizar en cinco
pilares principales: Visión, Habla, Idioma, Búsqueda y Conocimiento.
Referencia:
https://docs.microsoft.com/en-us/azure/cognitive-services/welcome
PREGUNTA 5
Debe almacenar datos en Azure Blob Storage para admitir Azure Machine Learning.
¿Cuáles son las tres formas posibles de lograr el objetivo? Cada respuesta correcta presenta una solución completa.
Explicación/Referencia:
Explicación:
Puede mover datos hacia y desde Azure Blob Storage mediante diferentes tecnologías:
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/team-data-science-process/move-azure-blob
PREGUNTA 6
Está moviendo un gran conjunto de datos de Azure Machine Learning Studio a un entorno Weka.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. Convertir a CSV
B. Convertir a conjunto de datos
C. Convertir a ARFF D.
Convertir a SVMLight
Respuesta correcta: C
Sección: (ninguno)
Explicación
Explicación/Referencia:
Explicación: Use el módulo
Convertir a ARFF en Azure Machine Learning Studio para convertir conjuntos de datos y resultados en Azure Machine Learning al formato de archivo de relación de atributos que usa el conjunto de herramientas de
Weka. Este formato se conoce como ARFF.
La especificación de datos ARFF para Weka admite múltiples tareas de aprendizaje automático, incluido el preprocesamiento de datos, la clasificación y la selección de funciones. En este formato, los datos están
organizados por entidades y sus atributos, y están contenidos en un solo archivo de texto.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/convert-to-arff
PREGUNTA 7
Planea crear un modelo de aprendizaje profundo de reconocimiento de voz.
Debe recomendar un marco de aprendizaje profundo para que el reconocimiento de voz se incluya en la máquina virtual de ciencia de datos (DSVM).
A. Sonajero
B. TensorFlow
C. semana
D. Scikit-aprender
Respuesta correcta: B
Sección: (ninguno)
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación
Explicación/Referencia:
Explicación: TensorFlow es una
biblioteca de código abierto para computación numérica y aprendizaje automático a gran escala. Utiliza Python para proporcionar una API front-end conveniente para crear aplicaciones con el marco TensorFlow
puede entrenar y ejecutar redes neuronales profundas para la clasificación de dígitos escritos a mano, reconocimiento de imágenes, incrustaciones de palabras, redes neuronales recurrentes, modelos de
secuencia a secuencia para traducción automática, natural procesamiento de lenguaje y simulaciones basadas en PDE (ecuación diferencial parcial).
Respuestas incorrectas:
R: Rattle es la herramienta analítica de R que lo ayuda a comenzar con el análisis de datos y el aprendizaje automático.
C: Weka se utiliza para software de aprendizaje automático y minería de datos visuales en Java.
D: Scikit-learn es una de las bibliotecas más útiles para el aprendizaje automático en Python. Está en NumPy, SciPy y matplotlib, esta biblioteca contiene muchas herramientas eficientes para el aprendizaje
automático y el modelado estadístico, incluida la clasificación, la regresión, la agrupación y la reducción de la dimensionalidad.
Referencia:
https://www.infoworld.com/article/3278008/what-is-tensorflow-the-machine-learning-library-explained.html
PREGUNTA 8
Tiene previsto utilizar una máquina virtual de ciencia de datos (DSVM) con los marcos de aprendizaje profundo de código abierto Caffe2 y PyTorch.
Respuesta correcta: E
Sección: (ninguno)
Explicación
Explicación/Referencia:
Explicación: Caffe2 y PyTorch
son compatibles con Data Science Virtual Machine para Linux.
Microsoft ofrece ediciones Linux de DSVM en Ubuntu 16.04 LTS y CentOS 7.4.
Solo el DSVM en Ubuntu está preconfigurado para Caffe2 y PyTorch.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuestas incorrectas:
D: Caffe2 y PytOCH solo son compatibles con la máquina virtual de ciencia de datos para Linux.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/data-science-virtual-machine/overview
PREGUNTA 9
Está desarrollando un área de trabajo de ciencia de datos que usa un servicio Azure Machine Learning.
Respuesta correcta: C
Sección: (ninguno)
Explicación
Explicación/Referencia:
Explicación: Azure Container
Instances se puede usar como destino de proceso para pruebas o desarrollo. Utilícelo para cargas de trabajo basadas en CPU de baja escala que requieran menos de 48 GB de RAM.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/service/how-to-deploy-and-where
PREGUNTA 10
Estás resolviendo una tarea de clasificación.
Debe seleccionar un módulo de Azure Machine Learning Studio para mejorar la precisión de la clasificación.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: use el módulo
SMOTE en Azure Machine Learning Studio (clásico) para aumentar la cantidad de casos subrepresentados en un conjunto de datos que se usa para el aprendizaje automático.
SMOTE es una mejor manera de aumentar el número de casos raros que simplemente duplicar los casos existentes.
Conecta el módulo SMOTE a un conjunto de datos que está desequilibrado. Hay muchas razones por las que un conjunto de datos puede estar desequilibrado: la categoría a la que se dirige puede ser
muy rara en la población, o los datos pueden ser simplemente difíciles de recopilar. Por lo general, usa SMOTE cuando la clase que desea analizar está subrepresentada.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/smote
PREGUNTA 11
Está analizando un conjunto de datos que contiene datos históricos de una empresa de taxis local. Estás desarrollando un modelo de regresión.
¿Qué dos métricas puedes usar? ¿Cada respuesta correcta presenta una solución completa?
Respuesta correcta: AD
Sección: (ninguna)
Explicación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación/Referencia:
Explicación: RMSE y R2 son
métricas para modelos de regresión.
R: El error cuadrático medio (RMSE) crea un valor único que resume el error en el modelo. Al elevar al cuadrado la diferencia, la métrica ignora la diferencia entre la predicción excesiva y la predicción
insuficiente.
D: el coeficiente de determinación, a menudo denominado R2, representa el poder predictivo del modelo como un valor entre 0 y 1. Cero significa que el modelo es aleatorio (no explica nada); 1 significa
que hay un ajuste perfecto. Sin embargo, se debe tener precaución al interpretar los valores de R2, ya que los valores bajos pueden ser completamente normales y los valores altos pueden ser sospechosos.
Respuestas incorrectas:
C, E: la puntuación F se usa para modelos de clasificación, no para modelos de regresión.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/evaluate-model
PREGUNTA 12
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Utiliza Azure Machine Learning para ejecutar un experimento que entrena un modelo de clasificación.
Desea usar Hyperdrive para encontrar parámetros que optimicen la métrica AUC para el modelo. Configure un HyperDriveConfig para el experimento ejecutando el siguiente código:
Planea usar esta configuración para ejecutar un script que entrena un modelo de bosque aleatorio y luego lo prueba con datos de validación. Los valores de etiqueta para los datos de validación se
almacenan en una variable denominada y_test variable, y las probabilidades pronosticadas del modelo se almacenan en una variable denominada y_predicted.
Debe agregar el registro al script para permitir que Hyperdrive optimice los hiperparámetros para la métrica AUC.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: ejemplo de
impresión/registro de Python:
logging.info(mensaje)
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-debug-pipelines
PREGUNTA 13
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Utiliza Azure Machine Learning para ejecutar un experimento que entrena un modelo de clasificación.
Desea usar Hyperdrive para encontrar parámetros que optimicen la métrica AUC para el modelo. Configure un HyperDriveConfig para el experimento ejecutando el siguiente código:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Planea usar esta configuración para ejecutar un script que entrena un modelo de bosque aleatorio y luego lo prueba con datos de validación. Los valores de etiqueta para los datos de validación se
almacenan en una variable denominada y_test variable, y las probabilidades pronosticadas del modelo se almacenan en una variable denominada y_predicted.
Debe agregar el registro al script para permitir que Hyperdrive optimice los hiperparámetros para la métrica AUC.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación Use una solución
con logging.info (mensaje) en su lugar.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-debug-pipelines
PREGUNTA 14
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Utiliza Azure Machine Learning para ejecutar un experimento que entrena un modelo de clasificación.
Desea usar Hyperdrive para encontrar parámetros que optimicen la métrica AUC para el modelo. Configure un HyperDriveConfig para el experimento ejecutando el siguiente código:
Planea usar esta configuración para ejecutar un script que entrena un modelo de bosque aleatorio y luego lo prueba con datos de validación. Los valores de etiqueta para los datos de validación se
almacenan en una variable denominada y_test variable, y las probabilidades pronosticadas del modelo se almacenan en una variable denominada y_predicted.
Debe agregar el registro al script para permitir que Hyperdrive optimice los hiperparámetros para la métrica AUC.
R. Sí
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación Use una solución
con logging.info (mensaje) en su lugar.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-debug-pipelines
PREGUNTA 15
Tiene previsto aprovisionar un espacio de trabajo de la edición básica de Azure Machine Learning para un proyecto de ciencia de datos.
¿Qué tres tareas serás capaz de realizar? Cada respuesta correcta presenta una solución completa.
A. Cree una instancia informática y utilícela para ejecutar código en cuadernos de Jupyter.
B. Cree un clúster de inferencia de Azure Kubernetes Service (AKS).
C. Utilice el diseñador para entrenar un modelo arrastrando y soltando módulos predefinidos.
D. Cree un conjunto de datos tabulares que admita el control de versiones.
E. Use la interfaz de usuario de aprendizaje automático automatizado para entrenar un modelo.
Explicación/Referencia:
Respuestas incorrectas: C, E:
La interfaz de usuario se incluye solo en la edición Enterprise.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://azure.microsoft.com/en-us/pricing/details/machine-learning/
PREGUNTA 16 Un
conjunto de archivos CSV contiene registros de ventas. Todos los archivos CSV tienen el mismo esquema de datos.
Cada archivo CSV contiene el registro de ventas de un mes en particular y tiene el nombre de archivo sales.csv. Cada archivo se almacena en una carpeta que indica el mes y el año en que se registraron los datos.
Las carpetas están en un contenedor de blobs de Azure para el que se ha definido un almacén de datos en un área de trabajo de Azure Machine Learning. Las carpetas están organizadas en una carpeta principal
denominada ventas para crear la siguiente estructura jerárquica:
Al final de cada mes, se agrega una nueva carpeta con el archivo de ventas de ese mes a la carpeta de ventas .
Planea usar los datos de ventas para entrenar un modelo de aprendizaje automático basado en los siguientes requisitos:
Debe definir un conjunto de datos que cargue todos los datos de ventas hasta la fecha en una estructura que se pueda convertir fácilmente en un marco de datos.
Debe poder crear experimentos que utilicen solo los datos que se crearon antes de un mes anterior específico, ignorando los datos que se agregaron después de ese mes.
Debe registrar el mínimo número de conjuntos de datos posible.
Debe registrar los datos de ventas como un conjunto de datos en el área de trabajo del servicio Azure Machine Learning.
A. Cree un conjunto de datos tabulares que haga referencia al almacén de datos y especifique explícitamente cada archivo 'sales/mm-yyyy/sales.csv' cada mes. Registre el conjunto de datos con el
nombre sales_dataset cada mes, reemplazando el conjunto de datos existente y especificando una etiqueta llamada mes que indica el mes y el año en que se registró. Utilice este conjunto de datos para
todos los experimentos.
B. Cree un conjunto de datos tabular que haga referencia al almacén de datos y especifique la ruta 'sales/*/sales.csv', registre el conjunto de datos con el nombre sales_dataset y una etiqueta denominada
mes que indique el mes y el año en que se registró, y use este conjunto de datos para todos los experimentos.
C. Cree un nuevo conjunto de datos tabulares que haga referencia al almacén de datos y especifique explícitamente cada archivo 'sales/mm-yyyy/sales.csv' cada mes. Registre el conjunto de datos con el nombre
sales_dataset_MM-YYYY cada mes con los valores MM y YYYY apropiados para el mes y el año. Use el conjunto de datos específico del mes adecuado para los experimentos.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
D. Cree un conjunto de datos tabulares que haga referencia al almacén de datos y especifique explícitamente cada archivo 'sales/mm-yyyy/sales.csv'. Registre el conjunto de datos con el nombre
sales_dataset cada mes como una nueva versión y con una etiqueta llamada mes que indica el mes y el año en que se registró. Use este conjunto de datos para todos los experimentos, identificando la versión
que se usará en función de la etiqueta del mes , según sea necesario.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Especifique la ruta.
Ejemplo: el
siguiente código obtiene el espacio de trabajo existente y el almacén de datos deseado por nombre. Y luego pasa el almacén de datos y las ubicaciones del archivo al parámetro de ruta para crear un nuevo
TabularDataset, weather_ds.
weather_ds = Dataset.Tabular.from_delimited_files(path=datastore_paths)
PREGUNTA 17
Utilice el siguiente código para ejecutar un script como un experimento en Azure Machine Learning:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe identificar los archivos de salida generados por la ejecución del experimento.
Debe agregar código para recuperar los nombres de los archivos de salida.
A. archivos = ejecutar.get_properties()
B. archivos= ejecutar.get_file_names()
C. archivos = ejecutar.obtener_detalles_con_registros()
D. archivos = ejecutar.get_metrics()
E. archivos = ejecutar.get_detalles()
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Puede enumerar
todos los archivos que están asociados con este registro de ejecución llamando a run.get_file_names()
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-track-experiments
PREGUNTA 18
Usted escribe cinco secuencias de comandos de Python que deben procesarse en el orden especificado en el Anexo A, lo que permite que los mismos módulos se ejecuten en paralelo, pero esperará
módulos con dependencias.
Debe crear una canalización de Azure Machine Learning con el SDK de Python, porque desea generar un script para crear la canalización para realizar un seguimiento en su sistema de control de
versiones. Ha creado cinco PythonScriptSteps y ha nombrado las variables para que coincidan con los nombres de los módulos.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe crear la canalización que se muestra. Suponga que se han realizado todas las importaciones pertinentes.
UNA.
B.
C.
D.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El parámetro de
pasos es una matriz de pasos. Para crear canalizaciones que tengan varios pasos, coloque los pasos en orden en esta matriz.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-use-parallel-run-step
PREGUNTA 19
Crea un almacén de datos denominado training_data que hace referencia a un contenedor de blobs en una cuenta de Azure Storage. El contenedor de blobs contiene una carpeta denominada csv_files
en la que se almacenan varios archivos de valores separados por comas (CSV).
Tiene un script llamado train.py en una carpeta local llamada ./script que planea ejecutar como un experimento usando un estimador. El script incluye el siguiente código para leer datos de la carpeta
csv_files:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe configurar el estimador para el experimento para que la secuencia de comandos pueda leer los datos de una referencia de datos llamada data_ref que hace referencia a la carpeta csv_files
en el almacén de datos training_data.
UNA.
B.
C.
D.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Y.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Además de pasar
el conjunto de datos a través del parámetro de entrada en el estimador, también puede pasar el conjunto de datos a través de script_params y obtener la ruta de datos (punto de montaje) en su script de
entrenamiento a través de argumentos. De esta forma, puede mantener su script de entrenamiento independiente de azureml-sdk. En otras palabras, podrá usar el mismo script de capacitación para la
depuración local y la capacitación remota en cualquier plataforma en la nube.
Ejemplo:
from azureml.train.sklearn import SKLearn
script_params = {
# montar el conjunto de datos en el cómputo remoto y pasar la ruta montada como argumento al script de entrenamiento '--data-folder':
mnist_ds.as_named_input('mnist').as_mount(), '--regularization': 0.5
est = SKLearn(source_directory=script_folder,
script_params=script_params,
compute_target=compute_target,
environment_definition=env,
entry_script='train_mnist.py')
# Ejecute el experimento
run = experiment.submit(est)
run.wait_for_completion(show_output=True)
Respuestas incorrectas:
A: Pandas DataFrame no se usa.
Referencia:
https://docs.microsoft.com/es-es/azure/machine-learning/how-to-train-with-datasets
PREGUNTA 20
Usted crea un modelo de aprendizaje profundo para el reconocimiento de imágenes en el servicio Azure Machine Learning mediante el entrenamiento basado en GPU.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe implementar el modelo en un contexto que permita la inferencia basada en GPU en tiempo real.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: puede usar Azure
Machine Learning para implementar un modelo habilitado para GPU como un servicio web. La implementación de un modelo en Azure Kubernetes Service (AKS) es una opción. El clúster de AKS
proporciona un recurso de GPU que el modelo usa para la inferencia.
La inferencia, o puntuación del modelo, es la fase en la que se utiliza el modelo desplegado para hacer predicciones. El uso de GPU en lugar de CPU ofrece ventajas de rendimiento en computación
altamente paralelizable.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-deploy-inferencing-gpus
PREGUNTA 21
Crea una canalización de inferencia por lotes mediante el SDK de Azure ML. La canalización se ejecuta con el siguiente código:
¿Cuáles son las dos maneras posibles de lograr esta meta? Cada respuesta correcta presenta una solución completa.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: DE
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Un trabajo de
inferencia por lotes puede tardar mucho tiempo en finalizar. Este ejemplo supervisa el progreso mediante el uso de un widget de Jupyter. También puede administrar el progreso del trabajo usando:
Estudio de aprendizaje automático de Azure.
Salida de consola del objeto PipelineRun.
pipeline_run.wait_for_completion(show_output=True)
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-use-parallel-run-step#monitor-the-parallel-run-job
PREGUNTA 22
Usted crea un modelo de aprendizaje profundo de clasificación de imágenes de varias clases.
Debe asegurarse de que se pueda identificar la versión correcta de PyTorch para el entorno de inferencia cuando se implemente el modelo.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. Guarde el modelo localmente como un archivo.pt e implemente el modelo como un servicio web local.
B. Implemente el modelo en un equipo que esté configurado para usar el entorno de conda predeterminado de Azure Machine Learning.
C. Registre el modelo con una extensión de archivo .pt y la propiedad de versión predeterminada .
D. Registrar el modelo, especificando las propiedades model_framework y model_framework_version .
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: framework_version:
La versión de PyTorch que se usará para ejecutar el código de entrenamiento.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-train-core/azureml.train.dnn.pytorch?view=azure-ml-py
PREGUNTA 23
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
El departamento de TI crea un destino de proceso de inferencia basado en Azure Kubernetes Service (AKS) denominado aks-cluster en el área de trabajo de Azure Machine Learning.
Tiene una computadora Microsoft Surface Book con una GPU. Python 3.6 y Visual Studio Code están instalados.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe ejecutar un script que entrene un modelo de red neuronal profunda (DNN) y registre las métricas de pérdida y precisión.
Solución: Instale el SDK de Azure ML en Surface Book. Ejecute el código de Python para conectarse al espacio de trabajo y luego ejecute el script de entrenamiento como un experimento en la computación
local.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: es necesario
adjuntar la máquina virtual mlvm como destino de proceso en el área de trabajo de Azure Machine Learning.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/concept-compute-target
PREGUNTA 24
Crea un espacio de trabajo de Azure Machine Learning.
Debe crear un rol personalizado llamado DataScientist que cumpla con los siguientes requisitos:
Debe crear un archivo JSON para el rol DataScientist en el área de trabajo de Azure Machine Learning.
El rol personalizado debe hacer cumplir las restricciones especificadas por el equipo de operaciones de TI.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
UNA.
B.
C.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
D.
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El siguiente rol
personalizado puede hacer todo en el espacio de trabajo excepto las siguientes acciones: No puede crear ni
actualizar un recurso informático.
No puede eliminar un recurso informático.
No puede agregar, eliminar ni modificar asignaciones de funciones.
No puede eliminar el espacio de trabajo.
Para crear un rol personalizado, primero cree un archivo JSON de definición de roles que especifique el permiso y el alcance del rol. El siguiente ejemplo define un rol personalizado denominado
"Científico de datos personalizado" en el ámbito de un nivel de espacio de trabajo específico:
data_scientist_custom_role.json: {
],
"Ámbitos asignables": [
"/subscriptions/<subscription_id>/resourceGroups/<resource_group_name>/providers/Microsoft.MachineLearningServices/workspaces/<workspace_name>"
]
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-assign-roles
PREGUNTA 25
Entrena un modelo de aprendizaje automático.
Debe implementar el modelo como un servicio de inferencia en tiempo real para realizar pruebas. El servicio requiere un uso bajo de la CPU y menos de 48 MB de RAM. El destino de cómputo para el servicio
implementado debe inicializarse automáticamente mientras se minimizan los costos y la sobrecarga administrativa.
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Azure Container
Instances (ACI) solo es adecuado para modelos pequeños de menos de 1 GB de tamaño.
Úselo para cargas de trabajo basadas en CPU de baja escala que requieran menos de 48 GB de RAM.
Nota: Microsoft recomienda usar clústeres de Azure Kubernetes Service (AKS) de un solo nodo para la prueba de desarrollo de modelos más grandes.
Referencia:
https://docs.microsoft.com/id-id/azure/machine-learning/how-to-deploy-and-where
PREGUNTA 26
Registra un modelo que planea usar en una canalización de inferencia por lotes.
La canalización de inferencia por lotes debe usar un paso ParallelRunStep para procesar archivos en un conjunto de datos de archivo. El script tiene las ejecuciones del paso ParallelRunStep que deben procesar seis
archivos de entrada cada vez que se llama a la función de inferencia.
¿Qué opción de configuración debe especificar en el objeto ParallelRunConfig para el paso PrallelRunStep?
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. process_count_per_node= "6"
B. node_count = "6"
C. mini_batch_size= "6"
D. error_umbral= "6"
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: node_count es la
cantidad de nodos en el destino de cómputo que se usa para ejecutar ParallelRunStep.
Respuestas incorrectas:
A: process_count_per_node
Número de procesos ejecutados en cada nodo. (opcional, el valor predeterminado es el número de núcleos en el nodo).
C: mini_batch_size Para
la entrada de FileDataset, este campo es el número de archivos que el script de usuario puede procesar en una llamada run(). Para la entrada TabularDataset, este campo es el tamaño aproximado de los datos que la
secuencia de comandos del usuario puede procesar en una llamada run(). Los valores de ejemplo son 1024, 1024 KB, 10 MB y 1 GB.
D: error_threshold La
cantidad de fallas de registro para TabularDataset y fallas de archivo para FileDataset que deben ignorarse durante el procesamiento. Si el recuento de errores supera este valor, el trabajo se cancelará.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-contrib-pipeline-steps/azureml.contrib.pipeline.steps.parallelrunconfig?view=azure-ml-py
PREGUNTA 27
Implementa un servicio de inferencia en tiempo real para un modelo entrenado.
El modelo implementado es compatible con una aplicación crítica para el negocio y es importante poder monitorear los datos enviados al servicio web y las predicciones que generan los datos.
Debe implementar una solución de supervisión para el modelo implementado con un esfuerzo administrativo mínimo.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
C. Ver los archivos de registro generados por el experimento utilizado para entrenar el modelo.
D. Cree un URI de seguimiento de ML Flow que haga referencia al extremo y vea los datos registrados por ML Flow.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Configure el registro
con Azure Machine Learning Studio. También puede habilitar Azure
Application Insights desde Azure Machine Learning Studio. Cuando esté listo para implementar su modelo como un servicio web, siga los siguientes pasos para habilitar Application Insights:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-enable-app-insights
PREGUNTA 28
Usted crea un espacio de trabajo de Azure Machine Learning. Está preparando un entorno de Python local en una computadora portátil. Desea usar la computadora portátil para conectarse
al espacio de trabajo y realizar experimentos.
Debe usar el SDK de Azure Machine Learning para interactuar con datos y experimentos en el área de trabajo.
Debe configurar el archivo config.json para conectarse al espacio de trabajo desde el entorno de Python.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
¿Qué dos parámetros adicionales debe agregar al archivo config.json para conectarse al espacio de trabajo? Cada respuesta correcta presenta parte de la solución.
A. inicio de
sesión B. grupo_de_recursos
C. id_suscripción D. clave
región este
Respuesta correcta: BC
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Para utilizar el
mismo espacio de trabajo en varios entornos, cree un archivo de configuración JSON. El archivo de configuración guarda su suscripción (subscription_id), recurso (resource_group) y el nombre del espacio
de trabajo para que pueda cargarse fácilmente.
id_suscripción='<id-suscripción-azure>',
resource_group='myresourcegroup',
create_resource_group=True, location='eastus2' )
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace
PREGUNTA 29
Usted crea un recurso informático de Azure Machine Learning para entrenar modelos. El recurso informático está configurado de la siguiente manera:
Nodos mínimos: 2
Nodos máximos: 4
Debe disminuir el número mínimo de nodos y aumentar el número máximo de nodos a los siguientes valores:
Nodos mínimos: 0
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Nodos máximos: 8
¿Cuáles son las tres formas posibles de lograr este objetivo? Cada respuesta correcta presenta una solución completa.
Explicación/Referencia:
Explicación: A: Puede
administrar activos y recursos en el estudio Azure Machine Learning.
B: La actualización (min_nodes=None, max_nodes=None, idle_seconds_before_scaledown=None) de la clase AmlCompute actualiza ScaleSettings para este objetivo de AmlCompute.
C: para cambiar los nodos del clúster, use la interfaz de usuario de su clúster en Azure Portal.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.compute.amlcompute(clase)
PREGUNTA 30
Una organización crea e implementa un modelo de aprendizaje profundo de clasificación de imágenes de varias clases que utiliza un conjunto de fotografías etiquetadas.
El equipo de ingeniería de software informa que hay una gran carga de inferencias para los servicios web de predicción durante el verano. El servicio web de producción para el modelo no cumple con la
demanda a pesar de tener un clúster de cómputo completamente utilizado donde se implementa el servicio web.
Debe mejorar el rendimiento del servicio web de clasificación de imágenes con un tiempo de inactividad mínimo y un esfuerzo administrativo mínimo.
A. Cree un nuevo clúster de cómputo utilizando tamaños de máquina virtual más grandes para los nodos, vuelva a implementar el servicio web en ese clúster y actualice el registro de DNS para el servicio.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: el SDK de Azure
Machine Learning no admite el escalado de un clúster de AKS. Para escalar los nodos en el clúster, use la interfaz de usuario de su clúster de AKS en el estudio Azure Machine Learning. Solo puede cambiar el
número de nodos, no el tamaño de la máquina virtual del clúster.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-create-attach-kubernetes
PREGUNTA 31
Crea una canalización de inferencia por lotes mediante el SDK de Azure ML. Configure los parámetros de canalización ejecutando el siguiente código:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: E
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: acción_salida
(str): Cómo se organizará la salida. Los valores admitidos actualmente son 'append_row' y 'summary_only'. 'append_row': todos los valores generados
por las invocaciones del método run() se agregarán en un archivo único llamado paralelo_run_step.txt que se crea en la ubicación de salida. 'solo_resumen'
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-contrib-pipeline-steps/azureml.contrib.pipeline.steps.parallelrunconfig
PREGUNTA 32
Utiliza el diseñador de Azure Machine Learning para crear un punto final de servicio en tiempo real. Tiene un único recurso informático del servicio Azure Machine Learning.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Azure Kubernetes
Service (AKS) se puede usar para la inferencia en tiempo real.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/concept-compute-target
PREGUNTA 33
Planea ejecutar una secuencia de comandos como un experimento utilizando una configuración de ejecución de secuencias de comandos. El script usa módulos de la biblioteca scipy, así como varios paquetes de
Python que normalmente no se instalan en un entorno conda predeterminado.
Planea ejecutar el experimento en su estación de trabajo local para conjuntos de datos pequeños y escalar el experimento ejecutándolo en clústeres informáticos remotos más potentes para conjuntos de datos
más grandes.
Debe asegurarse de que el experimento se ejecute correctamente en computación local y remota con el menor esfuerzo administrativo.
R. No especifique un entorno en la configuración de ejecución del experimento. Ejecute el experimento utilizando el entorno predeterminado.
B. Cree una máquina virtual (VM) con la configuración de Python requerida y adjunte la VM como destino de proceso. Utilice este objetivo de proceso para todas las ejecuciones de experimentos.
C. Crear y registrar un Ambiente que incluya los paquetes requeridos. Utilice este entorno para todas las ejecuciones de experimentos.
D. Cree un archivo config.yaml que defina los paquetes conda que se requieren y guarde el archivo en la carpeta del experimento.
E. Ejecute siempre el experimento con un Estimador utilizando los paquetes predeterminados.
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: si tiene un entorno
Conda existente en su computadora local, puede usar el servicio para crear un objeto de entorno. Al usar esta estrategia, puede reutilizar su entorno interactivo local en ejecuciones remotas.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-use-environments
PREGUNTA 34
Usted escribe un script de Python que procesa datos en un archivo de valores separados por comas (CSV).
El script carga los datos y determina el número de filas que contiene usando el siguiente código:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe registrar el recuento de filas como una métrica denominada row_count que se puede devolver mediante el método get_metrics del objeto Run una vez que se completa la ejecución del experimento.
A. ejecutar.upload_file('row_count', './data.csv')
B. ejecutar.log('row_count', filas)
C. ejecutar.etiqueta('row_count', filas)
D. ejecutar.log_table('row_count', filas)
E. ejecutar.log_row('row_count', filas)
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Registre un valor
numérico o de cadena en la ejecución con el nombre proporcionado mediante log(name, value, description=''). El registro de una métrica en una ejecución hace que esa métrica se almacene en el registro de
ejecución del experimento. Puede registrar la misma métrica varias veces dentro de una ejecución, y el resultado se considera un vector de esa métrica.
Respuestas incorrectas:
E: Usar log_row(name, description=None, **kwargs) crea una métrica con varias columnas como se describe en kwargs. Cada parámetro con nombre genera una columna con el valor especificado. log_row se
puede llamar una vez para registrar una tupla arbitraria, o varias veces en un bucle para generar una tabla completa.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.run
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 35
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Planea implementar el modelo como un servicio web en tiempo real. Las aplicaciones deben usar la autenticación basada en claves para usar el modelo.
Solución:
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
En su lugar, use solo auth_enabled = TRUE
Referencia:
https://azure.github.io/azureml-sdk-for-r/articles/deploying-models.html
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 36
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Planea implementar el modelo como un servicio web en tiempo real. Las aplicaciones deben usar la autenticación basada en claves para usar el modelo.
Solución:
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Autenticación
basada en claves.
Los servicios web implementados en AKS tienen la autenticación basada en claves habilitada de forma predeterminada. Los servicios implementados por ACI tienen la autenticación basada en claves deshabilitada de forma
predeterminada, pero puede habilitarla configurando auth_enabled = TRUE al crear el servicio web de ACI. El siguiente es un ejemplo de cómo crear una configuración de implementación de ACI con la autenticación basada en
claves habilitada.
Referencia:
https://azure.github.io/azureml-sdk-for-r/articles/deploying-models.html
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 37
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Planea implementar el modelo como un servicio web en tiempo real. Las aplicaciones deben usar la autenticación basada en claves para usar el modelo.
Solución:
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
En su lugar, use solo auth_enabled = TRUE
Referencia:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
https://azure.github.io/azureml-sdk-for-r/articles/deploying-models.html
PREGUNTA 38
Utiliza el SDK de Python de Azure Machine Learning para definir una canalización que consta de varios pasos.
Cuando ejecuta la canalización, observa que algunos pasos no se ejecutan. En su lugar, se utiliza la salida almacenada en caché de una ejecución anterior.
Debe asegurarse de que se ejecute cada paso de la canalización, incluso si los parámetros y el contenido del directorio de origen no han cambiado desde la ejecución anterior.
¿Cuáles son las dos maneras posibles de lograr esta meta? Cada respuesta correcta presenta una solución completa.
A. Utilice un objeto PipelineData que haga referencia a un almacén de datos que no sea el almacén de datos predeterminado.
B. Establezca la propiedad regenerate_outputs de la canalización en True.
C. Establezca la propiedad allow_reuse de cada paso de la canalización en False.
D. Reinicie el clúster de cómputo donde el experimento de canalización está configurado para ejecutarse.
E. Establezca la propiedad de salida de cada paso de la canalización en True.
Respuesta correcta: BC
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: B: Si
regenerate_outputs se establece en True, un nuevo envío siempre forzará la generación de todas las salidas de paso y no permitirá la reutilización de datos para cualquier paso de esta ejecución. Sin embargo, una vez que
se completa esta ejecución, las ejecuciones posteriores pueden reutilizar los resultados de esta ejecución.
C: tenga en cuenta lo siguiente cuando trabaje con pasos de canalización, datos de entrada/salida y reutilización de pasos.
Si los datos usados en un paso están en un almacén de datos y allow_reuse es True, no se detectarán los cambios en el cambio de datos. Si los datos se cargan como parte de la instantánea (bajo el
source_directory del paso), aunque no se recomienda, el hash cambiará y activará una nueva ejecución.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-pipeline-core/azureml.pipeline.core.pipelinestep
https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-getting starter.ipynb
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Testlet 1
Caso de estudio
Visión general
Eres un científico de datos en una empresa que proporciona ciencia de datos para eventos deportivos profesionales. Los modelos utilizarán datos del mercado global y local para cumplir con los siguientes objetivos comerciales:
Comprenda el sentimiento de los usuarios de dispositivos móviles en eventos deportivos en función del audio de las reacciones de la multitud.
Evaluar la tendencia de un usuario a responder a un anuncio.
Personalice los estilos de los anuncios publicados en dispositivos móviles.
Usar video para detectar eventos de penalización
Entorno actual
Los dispositivos de los consumidores proporcionarán los medios utilizados para la detección de eventos de penalización. Los medios pueden incluir imágenes y videos capturados durante el evento deportivo y compartidos a
través de las redes sociales. Las imágenes y videos tendrán diferentes tamaños y formatos.
Los datos disponibles para la construcción de modelos se componen de siete años de medios de eventos deportivos. Los medios de eventos deportivos incluyen; transcripciones de videos grabados o comentarios de radio, y
registros de fuentes de redes sociales relacionadas capturadas durante los eventos deportivos.
El sentimiento de la multitud incluirá grabaciones de audio enviadas por los asistentes al evento en formatos mono y estéreo.
Los científicos de datos deben crear una solución inteligente mediante el uso de múltiples modelos de aprendizaje automático para la detección de eventos de penalización.
Los científicos de datos deben crear cuadernos en un entorno local mediante la ingeniería automática de funciones y la creación de modelos en canalizaciones de aprendizaje automático.
Los cuadernos deben implementarse para volver a capacitarse mediante el uso de instancias de Spark con asignación dinámica de trabajadores.
Los cuadernos deben ejecutarse con el mismo código en las nuevas instancias de Spark para recodificar solo la fuente de los datos.
Los modelos de detección de penalización global deben entrenarse mediante el cálculo de gráficos de tiempo de ejecución dinámicos durante el entrenamiento.
Los modelos de detección de penalizaciones locales deben escribirse mediante BrainScript.
Los experimentos para los modelos de opinión de la multitud local deben combinar los datos de detección de penalizaciones locales.
Los modelos de opinión de la multitud deben identificar sonidos conocidos, como aplausos y eslóganes conocidos. Los modelos individuales de sentimiento de la multitud detectarán sonidos similares.
Todas las características compartidas para los modelos locales son variables continuas.
Las características compartidas deben usar doble precisión. Las capas subsiguientes deben tener disponibles métricas de media móvil y desviación estándar agregadas.
anuncios
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
El análisis muestra que, de las 100 funciones numéricas sobre la ubicación y el comportamiento del usuario, las 47 funciones que provienen de fuentes de ubicación se utilizan como funciones sin procesar. Un experimento sugerido para remediar el
problema del sesgo y la varianza es diseñar 10 características linealmente no correlacionadas.
El descubrimiento de datos inicial muestra una amplia gama de densidades de estados objetivo en los datos de entrenamiento utilizados para los modelos de opinión de la multitud.
Todos los modelos de detección de penalización muestran que las fases de inferencia que utilizan un descenso de gradiente estocástico (SGD) se ejecutan demasiado lentamente.
Las muestras de audio muestran que la longitud de un eslogan varía entre un 25ÿ% y un 47ÿ% según la región. El rendimiento de los modelos de detección
de penalizaciones globales muestra una varianza más baja pero un sesgo más alto cuando se comparan los conjuntos de entrenamiento y validación. Antes de implementar cualquier cambio de función, debe confirmar el sesgo y la varianza
utilizando todos los casos de capacitación y validación.
Los modelos de respuesta de anuncios deben entrenarse al comienzo de cada evento y aplicarse durante el evento deportivo.
Los modelos de segmentación del mercado deben optimizarse para un historial de respuesta de anuncios similar.
El muestreo debe garantizar el mutuo y colectivo exclusivamente entre modelos de segmentación local y global que comparten las mismas características.
Se aplicarán modelos de segmentación del mercado local antes de determinar la propensión de un usuario a responder a un anuncio.
Los modelos de respuesta de anuncios deben admitir límites no lineales de características.
El modelo de propensión publicitaria utiliza un umbral de corte de 0,45 y se vuelven a entrenar si el Kappa ponderado se desvía de 0,1 +/- 5 %.
El modelo de propensión publicitaria utiliza los factores de costo que se muestran en el siguiente diagrama:
El modelo de propensión publicitaria utiliza los factores de costo propuestos que se muestran en el siguiente diagrama:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Las curvas de desempeño de los escenarios de factor de costo actual y propuesto se muestran en el siguiente diagrama:
PREGUNTA 1
Debe implementar una estrategia de escalado para los datos de detección de penalizaciones locales.
A. Transmisión
B. Peso C. Lote
D. Coseno
Respuesta correcta: C
Sección: (ninguna)
Explicación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación/Referencia:
Explicación: las estadísticas de
normalización por lotes posteriores (PBN) son la versión de Microsoft Cognitive Toolkit (CNTK) de cómo evaluar la media de la población y la varianza de la normalización por lotes que podría usarse en
la inferencia del artículo original.
En CNTK, las redes personalizadas se definen mediante BrainScriptNetworkBuilder y se describen en el lenguaje de descripción de red de CNTK "BrainScript".
Escenario:
los modelos de detección de penalizaciones locales deben escribirse mediante BrainScript.
Referencias:
https://docs.microsoft.com/en-us/cognitive-toolkit/post-batch-normalization-statistics
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Testlet 2
Caso de estudio
Este es un caso de estudio. Los estudios de casos no se cronometran por separado. Puede usar tanto tiempo de examen como desee para completar cada caso. Sin embargo, puede haber estudios de casos y
secciones adicionales en este examen. Debe administrar su tiempo para asegurarse de poder completar todas las preguntas incluidas en este examen en el tiempo previsto.
Para responder a las preguntas incluidas en un estudio de caso, deberá hacer referencia a la información que se proporciona en el estudio de caso. Los estudios de caso pueden contener exhibiciones y otros recursos
que brindan más información sobre el escenario que se describe en el estudio de caso. Cada pregunta es independiente de las otras preguntas en este estudio de caso.
Al final de este estudio de caso, aparecerá una pantalla de revisión. Esta pantalla le permite revisar sus respuestas y hacer cambios antes de pasar a la siguiente sección del examen. Después de comenzar una nueva
sección, no puede volver a esta sección.
Visión general
Eres un científico de datos de Fabrikam Residences, una empresa especializada en propiedades privadas y comerciales de calidad en los Estados Unidos. Fabrikam Residences está considerando expandirse a Europa
y le ha pedido que investigue los precios de las residencias privadas en las principales ciudades europeas.
Utiliza Azure Machine Learning Studio para medir el valor medio de las propiedades. Usted produce un modelo de regresión para predecir los precios de las propiedades utilizando los módulos Regresión lineal y
Regresión lineal bayesiana.
conjuntos de datos
Hay dos conjuntos de datos en formato CSV que contienen detalles de propiedades para dos ciudades, Londres y París. Agregue ambos archivos a Azure Machine Learning Studio como conjuntos de datos
separados al punto de partida de un experimento. Ambos conjuntos de datos contienen las siguientes columnas:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Una investigación inicial muestra que los conjuntos de datos son idénticos en estructura aparte de la columna MedianValue. El conjunto de datos más pequeño de París contiene el MedianValue en
formato de texto, mientras que el conjunto de datos más grande de Londres contiene el MedianValue en formato numérico.
Problemas de datos
Valores faltantes
La columna AccessibilityToHighway en ambos conjuntos de datos contiene valores faltantes. Los datos faltantes deben reemplazarse con datos nuevos para que se modelen condicionalmente usando
las otras variables en los datos antes de completar los valores faltantes.
Las columnas de cada conjunto de datos contienen valores faltantes y nulos. Los conjuntos de datos también contienen muchos valores atípicos. La columna Edad tiene una alta proporción de valores
atípicos. Debe eliminar las filas que tienen valores atípicos en la columna Edad. Las columnas MedianValue y AvgRoomsInHouse contienen datos en formato numérico. Debe seleccionar un algoritmo
de selección de características para analizar la relación entre las dos columnas con más detalle.
El modelo muestra signos de sobreajuste. Necesita producir un modelo de regresión más refinado que reduzca el sobreajuste.
Debe configurar el experimento para validar de forma cruzada los módulos Regresión lineal y Regresión lineal bayesiana para evaluar el rendimiento. En cada caso, el predictor del conjunto de
datos es la columna denominada MedianValue. Debe asegurarse de que el tipo de datos de la columna MedianValue del conjunto de datos de París coincida con la estructura del conjunto de datos
de Londres.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe priorizar las columnas de datos para predecir el resultado. Debe usar estadísticas no paramétricas para medir las relaciones.
Debe usar un algoritmo de selección de características para analizar la relación entre las columnas MedianValue y AvgRoomsInHouse.
entrenamiento modelo
Dado un modelo entrenado y un conjunto de datos de prueba, debe calcular las puntuaciones de Importancia de características de permutación de las variables de características. Debe determinarse el ajuste
absoluto para el modelo.
Hiperparámetros
Debe configurar hiperparámetros en el proceso de aprendizaje del modelo para acelerar la fase de aprendizaje. Además, esta configuración debería cancelar las ejecuciones de menor rendimiento en cada
intervalo de evaluación, dirigiendo así el esfuerzo y los recursos hacia modelos que tienen más probabilidades de éxito.
Le preocupa que el modelo no use eficientemente los recursos informáticos en el ajuste de hiperparámetros. También le preocupa que el modelo pueda evitar un aumento en el tiempo de ajuste general. Por lo
tanto, debe implementar un criterio de finalización anticipada en los modelos que proporcione ahorros sin terminar los trabajos prometedores.
Pruebas
Debe producir varias particiones de un conjunto de datos en función del muestreo mediante el módulo Partición y muestra en Azure Machine Learning Studio.
Validación cruzada
Debe crear tres particiones iguales para la validación cruzada. También debe configurar el proceso de validación cruzada para que las filas en los conjuntos de datos de prueba y entrenamiento se dividan
uniformemente por propiedades que están cerca del río principal de cada ciudad. Debe completar esta tarea antes de que los datos pasen por el proceso de muestreo.
Cuando entrena un módulo de regresión lineal, debe determinar las mejores funciones para usar en un modelo. Puede elegir las métricas estándar proporcionadas para medir el rendimiento antes y
después de que se complete el proceso de importancia de la característica. La distribución de características en múltiples modelos de entrenamiento debe ser consistente.
Visualización de datos
Debe proporcionar los resultados de la prueba al equipo de Fabrikam Residences. Usted crea visualizaciones de datos para ayudar a presentar los resultados.
Debe producir una curva de características operativas del receptor (ROC) para realizar una evaluación de prueba de diagnóstico del modelo. Debe seleccionar los métodos apropiados para producir la curva
ROC en Azure Machine Learning Studio para comparar los módulos Two-Class Decision Forest y Two-Class Decision Jungle entre sí.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 1
Debe identificar visualmente si existen valores atípicos en la columna Edad y cuantificar los valores atípicos antes de eliminarlos.
¿Qué tres módulos de Azure Machine Learning Studio debe usar? Cada respuesta correcta presenta parte de la solución.
A. Crear diagrama de
dispersión B. Resumir datos
C. Recortar
valores D. Reemplazar valores
discretos E. Construir transformación de conteo
Explicación/Referencia:
Explicación: B: Para tener una
vista global, se puede usar el módulo de resumen de datos. Agregue el módulo y conéctelo al conjunto de datos que necesita visualizar.
R: Una forma de identificar rápidamente los valores atípicos visualmente es crear diagramas de dispersión.
C: la forma más fácil de tratar los valores atípicos en Azure ML es usar el módulo de valores de recorte. Puede identificar y, opcionalmente, reemplazar los valores de datos que están por encima o por debajo
de un umbral específico.
Puede usar el módulo Recortar valores en Azure Machine Learning Studio para identificar y, opcionalmente, reemplazar los valores de datos que están por encima o por debajo de un umbral específico.
Esto es útil cuando desea eliminar valores atípicos o reemplazarlos con una media, una constante u otro valor de sustitución.
Referencias:
https://blogs.msdn.microsoft.com/azuredev/2017/05/27/data-cleansing-tools-in-azure-machine-learning/
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/clip-values
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Conjunto de preguntas 3
PREGUNTA 1
Utiliza Azure Machine Learning Studio para crear un experimento de aprendizaje automático.
C. Partición y muestra D.
Modelo de sintonización: hiperparámetros
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La partición y la
muestra con la opción de división estratificada genera múltiples conjuntos de datos, particionados usando las reglas que especificó.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/partition-and-sample
PREGUNTA 2
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos establecidos.
Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Utiliza Azure Machine Learning Studio para realizar la ingeniería de características en un conjunto de datos.
Debe normalizar los valores para producir una columna de características agrupada en contenedores.
Solución: aplique un modo de agrupación en intervalos de longitud de descripción mínima (MDL) de entropía.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Modo de
agrupamiento MDL de entropía: este método requiere que seleccione la columna que desea predecir y la columna o columnas que desea agrupar en contenedores. Luego hace un pase sobre los datos e
intenta determinar el número de contenedores que minimiza la entropía. En otras palabras, elige una cantidad de contenedores que permite que la columna de datos prediga mejor la columna de destino.
Luego devuelve el número de contenedor asociado con cada fila de sus datos en una columna denominada <colname>quantized.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/group-data-into-bins
PREGUNTA 3
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Debe normalizar los valores para producir una columna de salida en contenedores para predecir una columna de destino.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Use el modo de
categorización Entropy MDL que tiene una columna de destino.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/group-data-into-bins
PREGUNTA 4
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Una clase tiene un número mucho menor de observaciones que las otras clases en el conjunto de entrenamiento.
Debe seleccionar una estrategia de muestreo de datos adecuada para compensar el desequilibrio de clases.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: En su lugar, utilice
el modo de muestreo Técnica de sobremuestreo de minorías sintéticas (SMOTE).
Nota: SMOTE se usa para aumentar la cantidad de casos subrepresentados en un conjunto de datos que se usa para el aprendizaje automático. SMOTE es una mejor manera de aumentar el número de
casos raros que simplemente duplicar los casos existentes.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/smote
PREGUNTA 5
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Una clase tiene un número mucho menor de observaciones que las otras clases en el conjunto de entrenamiento.
Debe seleccionar una estrategia de muestreo de datos adecuada para compensar el desequilibrio de clases.
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: SMOTE se usa
para aumentar la cantidad de casos subrepresentados en un conjunto de datos que se usa para el aprendizaje automático. SMOTE es una mejor manera de aumentar el número de casos raros que
simplemente duplicar los casos existentes.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/smote
PREGUNTA 6
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Una clase tiene un número mucho menor de observaciones que las otras clases en el conjunto de entrenamiento.
Debe seleccionar una estrategia de muestreo de datos adecuada para compensar el desequilibrio de clases.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: En su lugar, utilice
el modo de muestreo Técnica de sobremuestreo de minorías sintéticas (SMOTE).
Nota: SMOTE se usa para aumentar la cantidad de casos subrepresentados en un conjunto de datos que se usa para el aprendizaje automático. SMOTE es una mejor manera de aumentar el número de casos
raros que simplemente duplicar los casos existentes.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/smote
PREGUNTA 7
Está creando un modelo de aprendizaje automático.
¿Qué dos visualizaciones puedes usar? Cada respuesta correcta presenta una solución completa.
A. Diagrama de Venn
B. Diagrama de caja
C. Curva ROC
Explicación/Referencia:
Explicación: El algoritmo de
diagrama de caja se puede usar para mostrar valores atípicos.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Otra forma de identificar rápidamente los valores atípicos visualmente es crear diagramas de dispersión.
Referencias:
https://blogs.msdn.microsoft.com/azuredev/2017/05/27/data-cleansing-tools-in-azure-machine-learning/
PREGUNTA 8
Está analizando un conjunto de datos mediante Azure Machine Learning Studio.
Debe generar un resumen estadístico que contenga el valor p y el recuento único para cada columna de características.
¿Qué dos módulos puedes usar? Cada respuesta correcta presenta una solución completa.
Explicación/Referencia:
Explicación: El módulo Exportar
tabla de conteo se proporciona para compatibilidad con versiones anteriores de experimentos que usan los módulos Construir tabla de conteo (obsoleto) y Contar características (obsoleto).
E: Las estadísticas de resumen de datos son útiles cuando desea comprender las características del conjunto de datos completo. Por ejemplo, es posible que necesite saber:
Respuestas incorrectas:
A: El módulo Calcular correlación lineal en Azure Machine Learning Studio se usa para calcular un conjunto de coeficientes de correlación de Pearson para cada posible par de variables en el conjunto de
datos de entrada.
C: Con Python, puede realizar tareas que actualmente no son compatibles con los módulos de Studio existentes, como:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
D: El propósito del módulo Convertir en valores de indicadores es convertir columnas que contienen valores categóricos en una serie de columnas de indicadores binarios que se pueden usar más fácilmente
como características en un modelo de aprendizaje automático.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/export-count-table
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/summarize-data
PREGUNTA 9
Está evaluando un modelo de aprendizaje automático de clasificación binaria completo.
A. Diagrama de
violín B. Descenso de gradiente
C. Diagrama
de caja D. Matriz de confusión de clasificación binaria
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Respuestas incorrectas:
A: Un diagrama de violín es una
representación visual que tradicionalmente combina un diagrama de caja y un diagrama de densidad kernel.
B: El descenso de gradiente es un algoritmo de optimización iterativo de primer orden para encontrar el mínimo de una función. Para encontrar un mínimo local de una función mediante el descenso de
gradiente, se toman pasos proporcionales al negativo del gradiente (o gradiente aproximado) de la función en el punto actual.
C: un diagrama de caja le permite ver la información de distribución básica sobre sus datos, como la mediana, la media, el rango y los cuartiles, pero no le muestra cómo se ven sus datos en todo su rango.
Referencias:
https://machinelearningknowledge.ai/confusion-matrix-and-performance-metrics-machine-learning/
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 10
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Está analizando un conjunto de datos numéricos que contiene valores faltantes en varias columnas.
Debe limpiar los valores que faltan mediante una operación adecuada sin afectar la dimensionalidad del conjunto de características.
Debe analizar un conjunto de datos completo para incluir todos los valores.
Solución: utilice el método de la última observación realizada (LOCF) para imputar los puntos de datos que faltan.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: En su lugar, utilice
el método de imputación múltiple por ecuaciones encadenadas (MICE).
Reemplazar usando MICE: para cada valor faltante, esta opción asigna un nuevo valor, que se calcula usando un método descrito en la literatura estadística como "Imputación multivariante
usando ecuaciones encadenadas" o "Imputación múltiple por ecuaciones encadenadas". Con un método de imputación múltiple, cada variable con datos faltantes se modela condicionalmente
utilizando las otras variables en los datos antes de completar los valores faltantes.
Nota: La última observación realizada (LOCF) es un método para imputar datos faltantes en estudios longitudinales. Si una persona abandona un estudio antes de que finalice, su última puntuación
observada en la variable dependiente se utiliza para todos los puntos de observación posteriores (es decir, faltantes). LOCF se utiliza para mantener el tamaño de la muestra y reducir el sesgo causado
por la deserción de participantes en un estudio.
Referencias:
https://methods.sagepub.com/reference/encyc-of-research-design/n211.xml
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3074241/
PREGUNTA 11
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Está realizando una selección de características basada en filtros para un conjunto de datos para crear un clasificador de varias clases mediante Azure Machine Learning Studio.
El conjunto de datos contiene características categóricas que están altamente correlacionadas con la columna de etiqueta de salida.
Debe seleccionar el método estadístico de puntuación de características apropiado para identificar los predictores clave.
A. Correlación de Kendall
B. Correlación de Spearman C.
Chi-cuadrado D. Correlación de
Pearson
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La estadística de
correlación de Pearson, o el coeficiente de correlación de Pearson, también se conoce en los modelos estadísticos como el valor r. Para dos variables cualesquiera, devuelve un valor que indica la fuerza de la
correlación
El coeficiente de correlación de Pearson es el estadístico de prueba que mide la relación estadística, o asociación, entre dos variables continuas. Es conocido como el mejor método para medir la asociación entre
variables de interés porque se basa en el método de covarianza. Da información sobre la magnitud de la asociación, o correlación, así como la dirección de la relación.
Respuestas incorrectas:
C: La prueba de chi-cuadrado bidireccional es un método estadístico que mide qué tan cerca están los valores esperados de los resultados reales.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/filter-based-feature-selection
https://www.statisticssolutions.com/coeficiente-de-correlación-de-pearsons/
PREGUNTA 12
Planea impartir un taller práctico a varios estudiantes. El taller se centrará en la creación de visualizaciones de datos utilizando Python. Cada estudiante utilizará un dispositivo que tenga acceso a Internet.
Los dispositivos de los estudiantes no están configurados para el desarrollo de Python. Los estudiantes no tienen acceso de administrador para instalar software en sus dispositivos. Las suscripciones de Azure no
están disponibles para los estudiantes.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe asegurarse de que los estudiantes puedan ejecutar código de visualización de datos basado en Python.
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Referencias: https://
notebooks.azure.com/
PREGUNTA 13
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Está analizando un conjunto de datos numéricos que contiene valores faltantes en varias columnas.
Debe limpiar los valores que faltan mediante una operación adecuada sin afectar la dimensionalidad del conjunto de características.
Debe analizar un conjunto de datos completo para incluir todos los valores.
Solución: reemplace cada valor faltante utilizando el método de imputación múltiple por ecuaciones encadenadas (MICE).
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación:
Reemplazar usando MICE: para cada valor faltante, esta opción asigna un nuevo valor, que se calcula usando un método descrito en la literatura estadística como "Imputación multivariante
usando ecuaciones encadenadas" o "Imputación múltiple por ecuaciones encadenadas". Con un método de imputación múltiple, cada variable con datos faltantes se modela condicionalmente
utilizando las otras variables en los datos antes de completar los valores faltantes.
Nota: La imputación multivariada por ecuaciones encadenadas (MICE), a veces llamada "especificación totalmente condicional" o "imputación múltiple de regresión secuencial", ha surgido en la
literatura estadística como un método basado en principios para abordar los datos faltantes. La creación de imputaciones múltiples, en lugar de imputaciones únicas, explica la incertidumbre estadística
en las imputaciones. Además, el enfoque de ecuaciones encadenadas es muy flexible y puede manejar variables de distintos tipos (p. ej., continuas o binarias), así como complejidades como límites o
patrones de omisión de encuestas.
Referencias:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3074241/
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/clean-missing-data
PREGUNTA 14
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Está analizando un conjunto de datos numéricos que contiene valores faltantes en varias columnas.
Debe limpiar los valores que faltan mediante una operación adecuada sin afectar la dimensionalidad del conjunto de características.
Debe analizar un conjunto de datos completo para incluir todos los valores.
Solución: elimine toda la columna que contiene el punto de datos que falta.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Utilice el método
de imputación múltiple por ecuaciones encadenadas (MICE).
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencias:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3074241/
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/clean-missing-data
PREGUNTA 15
Está creando un nuevo experimento en Azure Machine Learning Studio. Tiene un conjunto de datos pequeño al que le faltan valores en muchas columnas. Los datos no requieren la aplicación de
predictores para cada columna. Planea usar Limpiar datos faltantes.
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Reemplazar
usando PCA probabilístico: en comparación con otras opciones, como la Imputación múltiple usando ecuaciones encadenadas (MICE), esta opción tiene la ventaja de no requerir la aplicación de
predictores para cada columna. En su lugar, aproxima la covarianza del conjunto de datos completo. Por lo tanto, podría ofrecer un mejor rendimiento para conjuntos de datos que tienen valores
faltantes en muchas columnas.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/clean-missing-data
PREGUNTA 16
Está evaluando un modelo de aprendizaje automático de clasificación binaria completo.
A. gráfico de
violín B. Descenso de gradiente
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
C. Diagrama de
dispersión D. Curva característica operativa del receptor (ROC)
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La característica
operativa del receptor (o ROC) es un gráfico de las etiquetas clasificadas correctamente frente a las etiquetas clasificadas incorrectamente para un modelo en particular.
Respuestas incorrectas: A:
Un diagrama de violín es una representación visual que tradicionalmente combina un diagrama de caja y un diagrama de densidad kernel.
B: El descenso de gradiente es un algoritmo de optimización iterativo de primer orden para encontrar el mínimo de una función. Para encontrar un mínimo local de una función mediante el descenso
de gradiente, se toman pasos proporcionales al negativo del gradiente (o gradiente aproximado) de la función en el punto actual.
C: Un gráfico de dispersión representa gráficamente los valores reales de sus datos frente a los valores predichos por el modelo. El diagrama de dispersión muestra los valores reales a lo largo del eje X
y muestra los valores pronosticados a lo largo del eje Y. También muestra una línea que ilustra la predicción perfecta, donde el valor predicho coincide exactamente con el valor real.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-understand-automated-ml#confusion-matrix
PREGUNTA 17
Estás resolviendo una tarea de clasificación.
Debe evaluar su modelo en una muestra de datos limitada mediante el uso de validación cruzada k-fold. Comienza configurando el parámetro ak como el número de divisiones.
A k=1
Bk=10
Ck=0.5
Dk=0,9
Respuesta correcta: B
Sección: (ninguna)
Explicación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación/Referencia:
Explicación: Validación cruzada
Leave One Out (LOO) Establecer K = n (el número
de observaciones) produce n veces y se denomina validación cruzada Leave One Out (LOO), un caso especial de K- enfoque de pliegue.
LOO CV a veces es útil, pero normalmente no altera los datos lo suficiente. Las estimaciones de cada pliegue están altamente correlacionadas y, por lo tanto, su promedio puede tener una gran variación.
Esta es la razón por la que la elección habitual es K=5 o 10. Proporciona un buen compromiso para la compensación entre sesgo y varianza.
PREGUNTA 18
Utiliza Azure Machine Learning Studio para crear un experimento de aprendizaje automático.
A. Dividir datos
B. Cargar modelo entrenado
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El módulo Agrupar
datos en contenedores admite múltiples opciones para clasificar datos. Puede personalizar cómo se configuran los bordes de los contenedores y cómo se reparten los valores en los contenedores.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/group-data-into-bins
PREGUNTA 19
Usted es un científico de datos líder en un proyecto que rastrea la salud y la migración de las aves. Usted crea un modelo de aprendizaje profundo de clasificación de imágenes de varias clases que utiliza un conjunto de
fotografías de aves etiquetadas recopiladas por expertos.
Tienes 100.000 fotografías de pájaros. Todas las fotografías utilizan el formato JPG y se almacenan en un contenedor de blobs de Azure en una suscripción de Azure.
Debe acceder a los archivos de fotografías de aves en el contenedor de blobs de Azure desde el área de trabajo del servicio Azure Machine Learning que se usará para el aprendizaje profundo.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. Cree una tienda de Azure Data Lake y mueva las fotografías de aves a la tienda.
B. Cree una base de datos de Azure Cosmos DB y adjunte el Azure Blob que contiene el almacenamiento de fotografías de aves a la base de datos.
C. Cree y registre un conjunto de datos mediante la clase TabularDataset que hace referencia al almacenamiento de blobs de Azure que contiene fotografías de aves.
D. Registre el almacenamiento de blobs de Azure que contiene las fotografías de aves como un almacén de datos en el servicio Azure Machine Learning.
E. Copie las fotografías de aves en el almacén de datos de blobs que se creó con su área de trabajo del servicio Azure Machine Learning.
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: se recomienda
crear un almacén de datos para un contenedor de blobs de Azure. Cuando crea un área de trabajo, un contenedor de blobs de Azure y un recurso compartido de archivos de Azure se registran automáticamente
en el área de trabajo.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-access-data
PREGUNTA 20
Registra un conjunto de datos de archivo llamado csv_folder que hace referencia a una carpeta. La carpeta incluye varios archivos de valores separados por comas (CSV) en un contenedor de blobs de Azure
Storage.
Planea usar el siguiente código para ejecutar un script que cargue datos del conjunto de datos del archivo. Usted crea e instancia las siguientes variables:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe pasar el conjunto de datos para asegurarse de que el script pueda leer los archivos a los que hace referencia.
A. entradas=[file_dataset.as_named_input('training_files')], B.
entradas=[file_dataset.as_named_input('training_files').as_mount()], C.
inputs=[file_dataset.as_named_input('training_files').to_pandas_dataframe( )], D. script_params={'--training_files': file_dataset},
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Ejemplo: from
azureml.train.estimator import
Estimator
script_params = { #
para montar archivos a los que hace referencia el
conjunto de datos mnist '--carpeta de datos': mnist_file_dataset.as_named_input('mnist_opendataset').as_mount(),
'--regularización': 0.5
}
est = Estimator(source_directory=script_folder,
script_params=script_params,
compute_target=compute_target,
environment_definition=env, entry_script='train.py')
Referencia:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
https://docs.microsoft.com/en-us/azure/machine-learning/tutorial-train-models-with-aml
PREGUNTA 21
Está creando una nueva canalización de Azure Machine Learning con el diseñador.
La canalización debe entrenar un modelo usando datos en un archivo de valores separados por comas (CSV) que se publica en un sitio web. No ha creado un conjunto de datos para este archivo.
Debe ingerir los datos del archivo CSV en la canalización del diseñador con el mínimo esfuerzo administrativo.
A. Convertir a CSV B.
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La forma preferida de
proporcionar datos a una canalización es un objeto de conjunto de datos. El objeto del conjunto de datos apunta a los datos que se encuentran en un almacén de datos o a los que se puede acceder desde una URL web.
La clase Dataset es abstracta, por lo que creará una instancia de FileDataset (que se refiere a uno o más archivos) o TabularDataset que se crea a partir de uno o más archivos con columnas de datos
delimitadas.
Ejemplo:
desde azureml.core import Dataset
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-create-your-first-pipeline
PREGUNTA 22
Usted define un almacén de datos denominado ml-data para un contenedor de blobs de Azure Storage. En el contenedor, tiene una carpeta llamada tren que contiene un archivo llamado data.csv. Planea
usar el archivo para entrenar un modelo mediante el SDK de Azure Machine Learning.
Planea entrenar el modelo mediante el SDK de Azure Machine Learning para ejecutar un experimento en proceso local.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
UNA.
B.
C.
D.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Y.
Respuesta correcta: E
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
Ejemplo:
data_folder = args.data_folder #
Cargar tren y datos de prueba
train_data = pd.read_csv(os.path.join(data_folder, 'data.csv'))
Referencia:
https://www.element61.be/en/resource/azure-machine-learning-services-complete-toolbox-ai
PREGUNTA 23
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Cree un almacén de datos del servicio Azure Machine Learning en un área de trabajo. El almacén de datos contiene los siguientes archivos:
/data/2018/Q1.csv /
data/2018/Q2.csv /
data/2018/Q3.csv /
data/2018/Q4.csv /
data/2019/Q1.csv
id,f1,f2,I
1,1,2,0
2,1,1,1
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
3,2,1,0
4,2,2,1
Debe crear un conjunto de datos llamado training_data y cargar los datos de todos los archivos en un único marco de datos mediante el siguiente código:
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Defina rutas con
dos rutas de archivo en su lugar.
Use Dataset.Tabular_from_delimeted ya que los datos no se limpian.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-create-register-datasets
PREGUNTA 24
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los
objetivos establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Cree un almacén de datos del servicio Azure Machine Learning en un área de trabajo. El almacén de datos contiene los siguientes archivos:
/data/2018/Q1.csv /
data/2018/Q2.csv /
data/2018/Q3.csv /
data/2018/Q4.csv /
data/2019/Q1.csv
id,f1,f2,I
1,1,2,0
2,1,1,1
3,2,1,0
4,2,2,1
Debe crear un conjunto de datos llamado training_data y cargar los datos de todos los archivos en un único marco de datos mediante el siguiente código:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Use dos rutas de
archivo.
Use Dataset.Tabular_from_delimeted, en lugar de Dataset.File.from_files, ya que los datos no se limpian.
Nota:
Un FileDataset hace referencia a uno o varios archivos en sus almacenes de datos o direcciones URL públicas. Si sus datos ya están limpios y listos para usar en experimentos de entrenamiento, puede
descargar o montar los archivos en su computadora como un objeto FileDataset.
Un TabularDataset representa datos en un formato tabular analizando el archivo o la lista de archivos proporcionados. Esto le brinda la capacidad de materializar los datos en pandas o Spark DataFrame
para que pueda trabajar con bibliotecas de capacitación y preparación de datos familiares sin tener que salir de su computadora portátil. Puede crear un objeto TabularDataset a partir de
archivos .csv, .tsv, .parquet, .jsonl y de resultados de consultas SQL.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-create-register-datasets
PREGUNTA 25
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Cree un almacén de datos del servicio Azure Machine Learning en un área de trabajo. El almacén de datos contiene los siguientes archivos:
/data/2018/Q1.csv /
data/2018/Q2.csv /
data/2018/Q3.csv /
data/2018/Q4.csv /
data/2019/Q1.csv
id,f1,f2,I
1,1,2,0
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
2,1,1,1
3,2,1,0
4,2,2,1
Debe crear un conjunto de datos llamado training_data y cargar los datos de todos los archivos en un único marco de datos mediante el siguiente código:
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Use dos rutas de
archivo.
Use Dataset.Tabular_from_delimeted ya que los datos no se limpian.
Nota:
Un TabularDataset representa datos en un formato tabular analizando el archivo o la lista de archivos proporcionados. Esto le brinda la capacidad de materializar los datos en pandas o Spark DataFrame
para que pueda trabajar con bibliotecas de capacitación y preparación de datos familiares sin tener que salir de su computadora portátil. Puede crear un objeto TabularDataset a partir de
archivos .csv, .tsv, .parquet, .jsonl y de resultados de consultas SQL.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-create-register-datasets
PREGUNTA 26
Planea usar la función Hyperdrive de Azure Machine Learning para determinar los valores óptimos de hiperparámetro al entrenar un modelo.
Debe usar Hyperdrive para probar combinaciones de los siguientes valores de hiperparámetro:
¿Qué expresiones de dos parámetros debe usar? Cada respuesta correcta presenta parte de la solución.
Respuesta correcta: BD
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: B: Los
hiperparámetros continuos se especifican como una distribución sobre un rango continuo de valores. Las distribuciones admitidas incluyen:
uniform(low, high) - Devuelve un valor distribuido uniformemente entre bajo y alto
D: Los hiperparámetros discretos se especifican como una elección entre valores discretos. elección puede ser:
uno o más valores separados por comas un
objeto de rango cualquier objeto de lista arbitraria
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-tune-hyperparameters
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 27
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Debe normalizar los valores para producir una columna de salida en contenedores para predecir una columna de destino.
Solución: aplique un ancho igual con el modo de agrupamiento personalizado de inicio y detención.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Use el modo de
categorización Entropy MDL que tiene una columna de destino.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/group-data-into-bins
PREGUNTA 28
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Debe normalizar los valores para producir una columna de salida en contenedores para predecir una columna de destino.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Use el modo de
categorización Entropy MDL que tiene una columna de destino.
Referencias:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/group-data-into-bins
PREGUNTA 29
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Planea usar un script de Python para ejecutar un experimento de Azure Machine Learning. El script crea una referencia al contexto de ejecución del experimento, carga datos desde un archivo, identifica
el conjunto de valores únicos para la columna de etiqueta y completa la ejecución del experimento:
El experimento debe registrar las etiquetas únicas en los datos como métricas para la ejecución que se pueden revisar más adelante.
Debe agregar código al script para registrar los valores de etiqueta únicos como métricas de ejecución en el punto indicado por el comentario.
ejecutar.upload_file('salidas/etiquetas.csv', './datos.csv')
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: label_vals tiene
etiquetas únicas (de la instrucción label_vals = data['label'].unique()), y debe registrarse.
Nota:
En su lugar, use la función run_log para registrar los contenidos en label_vals:
Referencia:
https://www.element61.be/en/resource/azure-machine-learning-services-complete-toolbox-ai
PREGUNTA 30
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Planea usar un script de Python para ejecutar un experimento de Azure Machine Learning. El script crea una referencia al contexto de ejecución del experimento, carga datos desde un archivo, identifica
el conjunto de valores únicos para la columna de etiqueta y completa la ejecución del experimento:
El experimento debe registrar las etiquetas únicas en los datos como métricas para la ejecución que se pueden revisar más adelante.
Debe agregar código al script para registrar los valores de etiqueta únicos como métricas de ejecución en el punto indicado por el comentario.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
En su lugar, use la función run_log para registrar los contenidos en label_vals:
Referencia:
https://www.element61.be/en/resource/azure-machine-learning-services-complete-toolbox-ai
PREGUNTA 31
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Planea usar un script de Python para ejecutar un experimento de Azure Machine Learning. El script crea una referencia al contexto de ejecución del experimento, carga datos desde un archivo, identifica
el conjunto de valores únicos para la columna de etiqueta y completa la ejecución del experimento:
El experimento debe registrar las etiquetas únicas en los datos como métricas para la ejecución que se pueden revisar más adelante.
Debe agregar código al script para registrar los valores de etiqueta únicos como métricas de ejecución en el punto indicado por el comentario.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
La función run_log se usa para registrar los contenidos en label_vals:
Referencia:
https://www.element61.be/en/resource/azure-machine-learning-services-complete-toolbox-ai
PREGUNTA 32
Estás resolviendo una tarea de clasificación.
Debe evaluar su modelo en una muestra de datos limitada mediante el uso de validación cruzada k-fold. Comienza configurando el parámetro ak como el número de divisiones.
A.k=0.5
B k = 0,01
Ck=5
D k=1
Respuesta correcta: C
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Validación
cruzada Leave One Out (LOO) Establecer
K = n (el número de observaciones) produce n veces y se denomina validación cruzada Leave One Out (LOO), un caso especial de K- enfoque de pliegue.
LOO CV a veces es útil, pero normalmente no altera los datos lo suficiente. Las estimaciones de cada pliegue están altamente correlacionadas y, por lo tanto, su promedio puede tener
una gran variación.
Esta es la razón por la que la elección habitual es K=5 o 10. Proporciona un buen compromiso para la compensación entre sesgo y varianza.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Testlet 1
Caso de estudio
Visión general
Eres un científico de datos en una empresa que proporciona ciencia de datos para eventos deportivos profesionales. Los modelos utilizarán datos del mercado global y local para cumplir con los siguientes objetivos comerciales:
Comprenda el sentimiento de los usuarios de dispositivos móviles en eventos deportivos en función del audio de las reacciones de la multitud.
Evaluar la tendencia de un usuario a responder a un anuncio.
Personalice los estilos de los anuncios publicados en dispositivos móviles.
Usar video para detectar eventos de penalización
Entorno actual
Los dispositivos de los consumidores proporcionarán los medios utilizados para la detección de eventos de penalización. Los medios pueden incluir imágenes y videos capturados durante el evento deportivo y compartidos a
través de las redes sociales. Las imágenes y videos tendrán diferentes tamaños y formatos.
Los datos disponibles para la construcción de modelos se componen de siete años de medios de eventos deportivos. Los medios de eventos deportivos incluyen; transcripciones de videos grabados o comentarios de radio, y
registros de fuentes de redes sociales relacionadas capturadas durante los eventos deportivos.
El sentimiento de la multitud incluirá grabaciones de audio enviadas por los asistentes al evento en formatos mono y estéreo.
Los científicos de datos deben crear una solución inteligente mediante el uso de múltiples modelos de aprendizaje automático para la detección de eventos de penalización.
Los científicos de datos deben crear cuadernos en un entorno local mediante la ingeniería automática de funciones y la creación de modelos en canalizaciones de aprendizaje automático.
Los cuadernos deben implementarse para volver a capacitarse mediante el uso de instancias de Spark con asignación dinámica de trabajadores.
Los cuadernos deben ejecutarse con el mismo código en las nuevas instancias de Spark para recodificar solo la fuente de los datos.
Los modelos de detección de penalización global deben entrenarse mediante el cálculo de gráficos de tiempo de ejecución dinámicos durante el entrenamiento.
Los modelos de detección de penalizaciones locales deben escribirse mediante BrainScript.
Los experimentos para los modelos de opinión de la multitud local deben combinar los datos de detección de penalizaciones locales.
Los modelos de opinión de la multitud deben identificar sonidos conocidos, como aplausos y eslóganes conocidos. Los modelos individuales de sentimiento de la multitud detectarán sonidos similares.
Todas las características compartidas para los modelos locales son variables continuas.
Las características compartidas deben usar doble precisión. Las capas subsiguientes deben tener disponibles métricas de media móvil y desviación estándar agregadas.
anuncios
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
El análisis muestra que, de las 100 funciones numéricas sobre la ubicación y el comportamiento del usuario, las 47 funciones que provienen de fuentes de ubicación se utilizan como funciones sin procesar. Un experimento sugerido para remediar el
problema del sesgo y la varianza es diseñar 10 características linealmente no correlacionadas.
El descubrimiento de datos inicial muestra una amplia gama de densidades de estados objetivo en los datos de entrenamiento utilizados para los modelos de opinión de la multitud.
Todos los modelos de detección de penalización muestran que las fases de inferencia que utilizan un descenso de gradiente estocástico (SGD) se ejecutan demasiado lentamente.
Las muestras de audio muestran que la longitud de un eslogan varía entre un 25ÿ% y un 47ÿ% según la región. El rendimiento de los modelos de detección
de penalizaciones globales muestra una varianza más baja pero un sesgo más alto cuando se comparan los conjuntos de entrenamiento y validación. Antes de implementar cualquier cambio de función, debe confirmar el sesgo y la varianza
utilizando todos los casos de capacitación y validación.
Los modelos de respuesta de anuncios deben entrenarse al comienzo de cada evento y aplicarse durante el evento deportivo.
Los modelos de segmentación del mercado deben optimizarse para un historial de respuesta de anuncios similar.
El muestreo debe garantizar el mutuo y colectivo exclusivamente entre modelos de segmentación local y global que comparten las mismas características.
Se aplicarán modelos de segmentación del mercado local antes de determinar la propensión de un usuario a responder a un anuncio.
Los modelos de respuesta de anuncios deben admitir límites no lineales de características.
El modelo de propensión publicitaria utiliza un umbral de corte de 0,45 y se vuelven a entrenar si el Kappa ponderado se desvía de 0,1 +/- 5 %.
El modelo de propensión publicitaria utiliza los factores de costo que se muestran en el siguiente diagrama:
El modelo de propensión publicitaria utiliza los factores de costo propuestos que se muestran en el siguiente diagrama:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Las curvas de desempeño de los escenarios de factor de costo actual y propuesto se muestran en el siguiente diagrama:
PREGUNTA 1
Debe implementar una estrategia de ingeniería de características para los modelos locales de opinión de la multitud.
Respuesta correcta: D
Sección: (ninguna)
Explicación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación/Referencia:
Explicación: El método de
análisis discriminante lineal funciona solo en variables continuas, no en variables categóricas u ordinales.
El análisis discriminante lineal es similar al análisis de varianza (ANOVA) en que funciona comparando las medias de las variables.
Escenario:
los científicos de datos deben crear cuadernos en un entorno local mediante la ingeniería automática de funciones y la creación de modelos en canalizaciones de aprendizaje automático.
Los experimentos para los modelos de opinión de la multitud local deben combinar los datos de detección de penalizaciones locales.
Todas las características compartidas para los modelos locales son variables continuas.
Respuestas incorrectas:
B: El coeficiente de correlación de Pearson, a veces llamado prueba R de Pearson, es un valor estadístico que mide la relación lineal entre dos variables. Al examinar los valores de los coeficientes,
puede inferir algo sobre la fuerza de la relación entre las dos variables y si están correlacionadas positiva o negativamente.
C: El coeficiente de correlación de Spearman está diseñado para usarse con datos no paramétricos y sin distribución normal. El coeficiente de Spearman es una medida no paramétrica de la dependencia
estadística entre dos variables y, a veces, se denota con la letra griega rho. El coeficiente de Spearman expresa el grado en que dos variables están monótonamente relacionadas. También se llama correlación
de rango de Spearman, porque se puede usar con variables ordinales.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/fisher-linear-discriminant-analysis
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/compute-linear-correlation
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Testlet 2
Caso de estudio
Este es un caso de estudio. Los estudios de casos no se cronometran por separado. Puede usar tanto tiempo de examen como desee para completar cada caso. Sin embargo, puede haber estudios de casos y
secciones adicionales en este examen. Debe administrar su tiempo para asegurarse de poder completar todas las preguntas incluidas en este examen en el tiempo previsto.
Para responder a las preguntas incluidas en un estudio de caso, deberá hacer referencia a la información que se proporciona en el estudio de caso. Los estudios de caso pueden contener exhibiciones y otros recursos
que brindan más información sobre el escenario que se describe en el estudio de caso. Cada pregunta es independiente de las otras preguntas en este estudio de caso.
Al final de este estudio de caso, aparecerá una pantalla de revisión. Esta pantalla le permite revisar sus respuestas y hacer cambios antes de pasar a la siguiente sección del examen. Después de comenzar una nueva
sección, no puede volver a esta sección.
Visión general
Eres un científico de datos de Fabrikam Residences, una empresa especializada en propiedades privadas y comerciales de calidad en los Estados Unidos. Fabrikam Residences está considerando expandirse a Europa
y le ha pedido que investigue los precios de las residencias privadas en las principales ciudades europeas.
Utiliza Azure Machine Learning Studio para medir el valor medio de las propiedades. Usted produce un modelo de regresión para predecir los precios de las propiedades utilizando los módulos Regresión lineal y
Regresión lineal bayesiana.
conjuntos de datos
Hay dos conjuntos de datos en formato CSV que contienen detalles de propiedades para dos ciudades, Londres y París. Agregue ambos archivos a Azure Machine Learning Studio como conjuntos de datos
separados al punto de partida de un experimento. Ambos conjuntos de datos contienen las siguientes columnas:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Una investigación inicial muestra que los conjuntos de datos son idénticos en estructura aparte de la columna MedianValue. El conjunto de datos más pequeño de París contiene el MedianValue en
formato de texto, mientras que el conjunto de datos más grande de Londres contiene el MedianValue en formato numérico.
Problemas de datos
Valores faltantes
La columna AccessibilityToHighway en ambos conjuntos de datos contiene valores faltantes. Los datos faltantes deben reemplazarse con datos nuevos para que se modelen condicionalmente usando
las otras variables en los datos antes de completar los valores faltantes.
Las columnas de cada conjunto de datos contienen valores faltantes y nulos. Los conjuntos de datos también contienen muchos valores atípicos. La columna Edad tiene una alta proporción de valores
atípicos. Debe eliminar las filas que tienen valores atípicos en la columna Edad. Las columnas MedianValue y AvgRoomsInHouse contienen datos en formato numérico. Debe seleccionar un algoritmo
de selección de características para analizar la relación entre las dos columnas con más detalle.
El modelo muestra signos de sobreajuste. Necesita producir un modelo de regresión más refinado que reduzca el sobreajuste.
Debe configurar el experimento para validar de forma cruzada los módulos Regresión lineal y Regresión lineal bayesiana para evaluar el rendimiento. En cada caso, el predictor del conjunto de
datos es la columna denominada MedianValue. Debe asegurarse de que el tipo de datos de la columna MedianValue del conjunto de datos de París coincida con la estructura del conjunto de datos
de Londres.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe priorizar las columnas de datos para predecir el resultado. Debe usar estadísticas no paramétricas para medir las relaciones.
Debe usar un algoritmo de selección de características para analizar la relación entre las columnas MedianValue y AvgRoomsInHouse.
entrenamiento modelo
Dado un modelo entrenado y un conjunto de datos de prueba, debe calcular las puntuaciones de Importancia de características de permutación de las variables de características. Debe determinarse el ajuste
absoluto para el modelo.
Hiperparámetros
Debe configurar hiperparámetros en el proceso de aprendizaje del modelo para acelerar la fase de aprendizaje. Además, esta configuración debería cancelar las ejecuciones de menor rendimiento en cada
intervalo de evaluación, dirigiendo así el esfuerzo y los recursos hacia modelos que tienen más probabilidades de éxito.
Le preocupa que el modelo no use eficientemente los recursos informáticos en el ajuste de hiperparámetros. También le preocupa que el modelo pueda evitar un aumento en el tiempo de ajuste general. Por lo
tanto, debe implementar un criterio de finalización anticipada en los modelos que proporcione ahorros sin terminar los trabajos prometedores.
Pruebas
Debe producir varias particiones de un conjunto de datos en función del muestreo mediante el módulo Partición y muestra en Azure Machine Learning Studio.
Validación cruzada
Debe crear tres particiones iguales para la validación cruzada. También debe configurar el proceso de validación cruzada para que las filas en los conjuntos de datos de prueba y entrenamiento se dividan
uniformemente por propiedades que están cerca del río principal de cada ciudad. Debe completar esta tarea antes de que los datos pasen por el proceso de muestreo.
Cuando entrena un módulo de regresión lineal, debe determinar las mejores funciones para usar en un modelo. Puede elegir las métricas estándar proporcionadas para medir el rendimiento antes y
después de que se complete el proceso de importancia de la característica. La distribución de características en múltiples modelos de entrenamiento debe ser consistente.
Visualización de datos
Debe proporcionar los resultados de la prueba al equipo de Fabrikam Residences. Usted crea visualizaciones de datos para ayudar a presentar los resultados.
Debe producir una curva de características operativas del receptor (ROC) para realizar una evaluación de prueba de diagnóstico del modelo. Debe seleccionar los métodos apropiados para producir la curva
ROC en Azure Machine Learning Studio para comparar los módulos Two-Class Decision Forest y Two-Class Decision Jungle entre sí.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
PREGUNTA 1
Debe seleccionar un método de extracción de características.
A. Información mutua
B. Prueba de la mediana de Mood
C. Correlación de Kendall
D. Importancia de la función de permutación
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: En estadística, el
coeficiente de correlación de rango de Kendall, comúnmente conocido como coeficiente tau de Kendall (después de la letra griega ÿ), es una estadística utilizada para medir la asociación ordinal entre
dos cantidades medidas.
Es un método compatible con la selección de características de Azure Machine Learning.
Nota: tanto el de Spearman como el de Kendall se pueden formular como casos especiales de un coeficiente de correlación más general, y ambos son apropiados en este escenario.
Escenario: las columnas MedianValue y AvgRoomsInHouse contienen datos en formato numérico. Debe seleccionar un algoritmo de selección de características para analizar la relación entre las dos
columnas con más detalle.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/feature-selection-modules
PREGUNTA 2
Debe seleccionar un método de extracción de características.
A. Información mutua
B. Correlación de Pearson
C. Correlación de Spearman
D. Análisis discriminante lineal de Fisher
Respuesta correcta: C
Sección: (ninguna)
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación
Explicación/Referencia:
Explicación: El coeficiente
de correlación de rangos de Spearman evalúa qué tan bien se puede describir la relación entre dos variables usando una función monótona.
Nota: tanto el de Spearman como el de Kendall se pueden formular como casos especiales de un coeficiente de correlación más general, y ambos son apropiados en este escenario.
Escenario: las columnas MedianValue y AvgRoomsInHouse contienen datos en formato numérico. Debe seleccionar un algoritmo de selección de características para analizar la
relación entre las dos columnas con más detalle.
Respuestas
incorrectas: B: La correlación de Spearman entre dos variables es igual a la correlación de Pearson entre los valores de rango de esas dos variables; mientras que la correlación de
Pearson evalúa las relaciones lineales, la correlación de Spearman evalúa las relaciones monótonas (ya sean lineales o no).
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/feature-selection-modules
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Conjunto de preguntas 3
PREGUNTA 1 Es
un científico de datos que trabaja para un banco y ha usado Azure ML para entrenar y registrar un modelo de aprendizaje automático que predice si es probable que un cliente pague un préstamo.
Desea comprender cómo su modelo realiza las selecciones y debe asegurarse de que el modelo no infrinja las normas gubernamentales, como la denegación de préstamos en función del lugar de residencia del solicitante.
Debe determinar en qué medida cada característica de los datos del cliente influye en las predicciones.
B. Califique el modelo contra algunos datos de prueba con valores de etiqueta conocidos y use los resultados para calcular una matriz de confusión.
C. Use la biblioteca Hyperdrive para probar el modelo con múltiples valores de hiperparámetro.
D. Usar el paquete de interpretabilidad para generar un explicativo para el modelo.
E. Agregue etiquetas al registro del modelo que indiquen los nombres de las características en el conjunto de datos de entrenamiento.
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Cuando calcula
explicaciones de modelos y las visualiza, no está limitado a una explicación de modelo existente para un modelo de ML automatizado. También puede obtener una explicación para su modelo con diferentes datos de prueba.
Los pasos de esta sección le muestran cómo calcular y visualizar la importancia de las características diseñadas en función de sus datos de prueba.
Respuestas incorrectas:
A: En el contexto del aprendizaje automático, la deriva de datos es el cambio en los datos de entrada del modelo que conduce a la degradación del rendimiento del modelo. Es una de las principales razones por las que la
precisión del modelo se degrada con el tiempo, por lo que el control de la deriva de datos ayuda a detectar problemas de rendimiento del modelo.
B: Se utiliza una matriz de confusión para describir el rendimiento de un modelo de clasificación. Cada fila muestra las instancias de la clase verdadera o real en su conjunto de datos, y cada columna representa las instancias de
la clase que predijo el modelo.
C: Los hiperparámetros son parámetros ajustables que elige para el entrenamiento del modelo que guían el proceso de entrenamiento. El paquete HyperDrive lo ayuda a automatizar la elección de estos parámetros.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-machine-learning-interpretability-automl
PREGUNTA 2
Planea usar el aprendizaje automático automatizado para entrenar un modelo de regresión. Tiene datos que tienen características que tienen valores faltantes y características categóricas con pocos valores
distintos.
Debe configurar el aprendizaje automático automatizado para imputar automáticamente los valores faltantes y codificar características categóricas como parte de la tarea de entrenamiento.
A. caracterización = 'auto'
B. enable_voting_ensemble = Verdadero C. tarea =
'clasificación'
D. include_nan_labels = Verdadero E.
enable_tf = Verdadero
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Featurization str o
FeaturizationConfig Valores: 'auto' / 'off' /
FeaturizationConfig Indicador de si el paso de
caracterización se debe realizar automáticamente o no, o si se debe usar una caracterización personalizada.
El tipo de columna se detecta automáticamente. En función del tipo de columna detectado, el preprocesamiento/la caracterización se realiza de la siguiente manera:
Categórico: codificación de destino, una codificación en caliente, descartar categorías de alta cardinalidad, imputar valores faltantes.
Numérico: imputar valores faltantes, distancia de grupo, peso de la evidencia.
DateTime: varias características como día, segundos, minutos, horas, etc.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig.automlconfig
PREGUNTA 3
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Debe ser capaz de explicar las predicciones del modelo calculando la importancia de cada función, tanto como un valor de importancia relativa global general como una medida de importancia local
para un conjunto específico de predicciones.
Debe crear un explicador que pueda usar para recuperar los valores de importancia de características globales y locales requeridos.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: En su lugar, utilice
el Explicador de importancia de características de permutación (PFI).
Nota 1: el explicador Mimic se basa en la idea de entrenar modelos sustitutos globales para imitar modelos de caja negra. Un modelo sustituto global es un modelo intrínsecamente interpretable que está
entrenado para aproximarse a las predicciones de cualquier modelo de caja negra con la mayor precisión posible. Los científicos de datos pueden interpretar el modelo sustituto para sacar conclusiones sobre
el modelo de caja negra.
Nota 2: Explicación de la importancia de la característica de permutación (PFI): La importancia de la característica de permutación es una técnica utilizada para explicar los modelos de clasificación y regresión.
En un nivel alto, la forma en que funciona es mezclando aleatoriamente los datos de una característica a la vez para todo el conjunto de datos y calculando cuánto cambia la métrica de rendimiento de interés.
Cuanto más grande es el cambio, más importante es esa característica. PFI puede explicar el comportamiento general de cualquier modelo subyacente, pero no explica las predicciones individuales.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-machine-learning-interpretability
PREGUNTA 4
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe ser capaz de explicar las predicciones del modelo calculando la importancia de cada característica, tanto como un valor de importancia relativa global general como una medida de importancia
local para un conjunto específico de predicciones.
Debe crear un explicador que pueda usar para recuperar los valores de importancia de características globales y locales requeridos.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia: En su
lugar, utilice el Explicador de importancia de características de permutación (PFI).
Nota 1:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Nota 2: Explicación de la importancia de la característica de permutación (PFI): La importancia de la característica de permutación es una técnica utilizada para explicar los modelos de clasificación y
regresión. En un nivel alto, la forma en que funciona es mezclando aleatoriamente los datos de una característica a la vez para todo el conjunto de datos y calculando cuánto cambia la métrica de
rendimiento de interés. Cuanto más grande es el cambio, más importante es esa característica. PFI puede explicar el comportamiento general de cualquier modelo subyacente, pero no explica las
predicciones individuales.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-machine-learning-interpretability
PREGUNTA 5
Estás construyendo un modelo de regresión para estimar el número de llamadas durante un evento.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe determinar si los valores de las características cumplen las condiciones para construir un modelo de regresión de Poisson.
¿Qué dos condiciones debe contener el conjunto de características? Cada respuesta correcta presenta parte de la solución.
Respuesta correcta: BD
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: la regresión de
Poisson está pensada para usarse en modelos de regresión que se usan para predecir valores numéricos, generalmente recuentos. Por lo tanto, debe usar este módulo para crear su modelo de regresión solo si
los valores que intenta predecir cumplen las siguientes condiciones:
La variable de respuesta tiene una distribución de Poisson.
Los recuentos no pueden ser negativos. El método fallará por completo si intenta usarlo con etiquetas negativas.
Una distribución de Poisson es una distribución discreta; por lo tanto, no tiene sentido utilizar este método con números no enteros.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/poisson-regression
PREGUNTA 6
Está realizando ingeniería de características en un conjunto de datos.
Debe agregar una característica llamada CityName y completar el valor de la columna con el texto London.
A. Editar metadatos
B. Selección de funciones basada en filtros
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Los cambios típicos
de metadatos pueden incluir marcar columnas como características.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/edit-metadata
PREGUNTA 7
Está determinando si dos conjuntos de datos son significativamente diferentes entre sí mediante Azure Machine Learning Studio.
Los valores estimados en un conjunto de datos pueden ser mayores o menores que los valores de referencia en el otro conjunto de datos. Debe generar una distribución que tenga un error de tipo I constante
como función de la correlación.
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Elija una prueba de
una o dos colas. El valor predeterminado es una prueba de dos colas. Este es el tipo de prueba más común, en el que la distribución esperada es simétrica alrededor de cero.
Ejemplo: Error de tipo I de pruebas t de dos muestras no apareadas y apareadas en función de la correlación. Los números aleatorios simulados se originan a partir de una distribución normal bivariada con una
varianza de 1.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/test-hypothesis-using-t-test
https://en.wikipedia.org/wiki/Student%27s_t-test
PREGUNTA 8
Está realizando ingeniería de características en un conjunto de datos.
Debe agregar una característica llamada CityName y completar el valor de la columna con el texto London.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
C. Preprocesar texto D.
Aplicar transformación SQL
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Los cambios
típicos de metadatos pueden incluir marcar columnas como características.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/edit-metadata
PREGUNTA 9
Ejecuta un experimento de aprendizaje automático automatizado en un área de trabajo de Azure Machine Learning. La información sobre la ejecución se muestra en la siguiente tabla:
Debe escribir un script que use el SDK de Azure Machine Learning para recuperar la mejor iteración de la ejecución del experimento.
UNA.
B.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
C.
D.
Y.
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El método
get_output en automl_classifier devuelve la mejor ejecución y el modelo ajustado para la última invocación. Las sobrecargas en get_output le permiten recuperar el mejor modelo ejecutado y ajustado para
cualquier métrica registrada o para una iteración particular.
En []:
mejor_ejecución, modelo_equipado = local_run.get_output()
Referencia:
https://notebooks.azure.com/azureml/projects/azureml-getting-started/html/how-to-use-azureml/automated-machine-learning/classification-with-deployment/auto-ml Classification-with -implementación.ipynb
PREGUNTA 10
Tiene un archivo de valores separados por comas (CSV) que contiene datos a partir de los cuales desea entrenar un modelo de clasificación.
Está utilizando la interfaz de aprendizaje automático automático en el estudio de aprendizaje automático de Azure para entrenar el modelo de clasificación. Establece el tipo de tarea en Clasificación.
Debe asegurarse de que el proceso de aprendizaje automático automatizado evalúe solo modelos lineales.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. Agregue todos los algoritmos que no sean lineales a la lista de algoritmos bloqueados.
B. Establezca la opción Criterio de salida en un umbral de puntuación métrica.
C. Borre la opción para realizar la caracterización automática.
D. Borre la opción para habilitar el aprendizaje profundo.
E. Establezca el tipo de tarea en Regresión.
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La caracterización
automática puede adaptarse a modelos no lineales.
Referencia:
https://econml.azurewebsites.net/spec/estimation/dml.html
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-use-automated-ml-for-ml-models
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Desarrollar modelos
Testlet 1
Caso de estudio
Visión general
Eres un científico de datos en una empresa que proporciona ciencia de datos para eventos deportivos profesionales. Los modelos utilizarán datos del mercado global y local para cumplir con los siguientes objetivos comerciales:
Comprenda el sentimiento de los usuarios de dispositivos móviles en eventos deportivos en función del audio de las reacciones de la multitud.
Evaluar la tendencia de un usuario a responder a un anuncio.
Personalice los estilos de los anuncios publicados en dispositivos móviles.
Usar video para detectar eventos de penalización
Entorno actual
Los dispositivos de los consumidores proporcionarán los medios utilizados para la detección de eventos de penalización. Los medios pueden incluir imágenes y videos capturados durante el evento deportivo y compartidos a
través de las redes sociales. Las imágenes y videos tendrán diferentes tamaños y formatos.
Los datos disponibles para la construcción de modelos se componen de siete años de medios de eventos deportivos. Los medios de eventos deportivos incluyen; transcripciones de videos grabados o comentarios de radio, y
registros de fuentes de redes sociales relacionadas capturadas durante los eventos deportivos.
El sentimiento de la multitud incluirá grabaciones de audio enviadas por los asistentes al evento en formatos mono y estéreo.
Los científicos de datos deben crear una solución inteligente mediante el uso de múltiples modelos de aprendizaje automático para la detección de eventos de penalización.
Los científicos de datos deben crear cuadernos en un entorno local mediante la ingeniería automática de funciones y la creación de modelos en canalizaciones de aprendizaje automático.
Los cuadernos deben implementarse para volver a capacitarse mediante el uso de instancias de Spark con asignación dinámica de trabajadores.
Los cuadernos deben ejecutarse con el mismo código en las nuevas instancias de Spark para recodificar solo la fuente de los datos.
Los modelos de detección de penalización global deben entrenarse mediante el cálculo de gráficos de tiempo de ejecución dinámicos durante el entrenamiento.
Los modelos de detección de penalizaciones locales deben escribirse mediante BrainScript.
Los experimentos para los modelos de opinión de la multitud local deben combinar los datos de detección de penalizaciones locales.
Los modelos de opinión de la multitud deben identificar sonidos conocidos, como aplausos y eslóganes conocidos. Los modelos individuales de sentimiento de la multitud detectarán sonidos similares.
Todas las características compartidas para los modelos locales son variables continuas.
Las características compartidas deben usar doble precisión. Las capas subsiguientes deben tener disponibles métricas de media móvil y desviación estándar agregadas.
anuncios
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
El análisis muestra que, de las 100 funciones numéricas sobre la ubicación y el comportamiento del usuario, las 47 funciones que provienen de fuentes de ubicación se utilizan como funciones sin procesar. Un experimento sugerido para remediar el
problema del sesgo y la varianza es diseñar 10 características linealmente no correlacionadas.
El descubrimiento de datos inicial muestra una amplia gama de densidades de estados objetivo en los datos de entrenamiento utilizados para los modelos de opinión de la multitud.
Todos los modelos de detección de penalización muestran que las fases de inferencia que utilizan un descenso de gradiente estocástico (SGD) se ejecutan demasiado lentamente.
Las muestras de audio muestran que la longitud de un eslogan varía entre un 25ÿ% y un 47ÿ% según la región. El rendimiento de los modelos de detección
de penalizaciones globales muestra una varianza más baja pero un sesgo más alto cuando se comparan los conjuntos de entrenamiento y validación. Antes de implementar cualquier cambio de función, debe confirmar el sesgo y la varianza
utilizando todos los casos de capacitación y validación.
Los modelos de respuesta de anuncios deben entrenarse al comienzo de cada evento y aplicarse durante el evento deportivo.
Los modelos de segmentación del mercado deben optimizarse para un historial de respuesta de anuncios similar.
El muestreo debe garantizar el mutuo y colectivo exclusivamente entre modelos de segmentación local y global que comparten las mismas características.
Se aplicarán modelos de segmentación del mercado local antes de determinar la propensión de un usuario a responder a un anuncio.
Los modelos de respuesta de anuncios deben admitir límites no lineales de características.
El modelo de propensión publicitaria utiliza un umbral de corte de 0,45 y se vuelven a entrenar si el Kappa ponderado se desvía de 0,1 +/- 5 %.
El modelo de propensión publicitaria utiliza los factores de costo que se muestran en el siguiente diagrama:
El modelo de propensión publicitaria utiliza los factores de costo propuestos que se muestran en el siguiente diagrama:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Las curvas de desempeño de los escenarios de factor de costo actual y propuesto se muestran en el siguiente diagrama:
PREGUNTA 1
Debe implementar un nuevo escenario de factor de costo para los modelos de respuesta de anuncios, como se ilustra en la exhibición de la curva de rendimiento.
A. Establezca el umbral en 0,5 y vuelva a entrenar si el Kappa ponderado se desvía +/- 5 % de 0,45.
B. Establezca el umbral en 0,05 y vuelva a entrenar si el Kappa ponderado se desvía +/- 5 % de 0,5.
C. Establezca el umbral en 0,2 y vuelva a entrenar si el Kappa ponderado se desvía +/- 5 % de 0,6.
D. Establezca el umbral en 0,75 y vuelva a entrenar si el Kappa ponderado se desvía +/- 5 % de 0,15.
Respuesta correcta: A
Sección: (ninguna)
Explicación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación/Referencia:
Explicación:
Guión:
Las curvas de desempeño de los escenarios de factor de costo actual y propuesto se muestran en el siguiente diagrama:
El modelo de propensión publicitaria utiliza un umbral de corte de 0,45 y se vuelven a entrenar si el Kappa ponderado se desvía de 0,1 +/- 5 %.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Desarrollar modelos
Conjunto de preguntas 2
PREGUNTA 1
Utiliza el módulo Red neuronal de dos clases en Azure Machine Learning Studio para crear un modelo de clasificación binaria. Utilice el módulo Ajustar hiperparámetros del modelo para ajustar la
precisión del modelo.
¿Qué dos valores debería usar? Cada respuesta correcta presenta parte de la solución.
Respuesta correcta: DE
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: D: Para Número
de iteraciones de aprendizaje, especifique el número máximo de veces que el algoritmo debe procesar los casos de entrenamiento.
E: Para la especificación de capa oculta, seleccione el tipo de arquitectura de red que desea crear.
Entre las capas de entrada y salida puede insertar varias capas ocultas. La mayoría de las tareas predictivas se pueden realizar fácilmente con solo una o unas pocas capas ocultas.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/two-class-neural-network
PREGUNTA 2
Crea un modelo de clasificación binaria mediante Azure Machine Learning Studio.
Debe ajustar los hiperparámetros realizando un barrido de parámetros del modelo. El barrido de parámetros debe cumplir los siguientes requisitos:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. Barrido aleatorio B.
Agrupamiento de barrido C.
Cuadrícula completa D.
Cuadrícula aleatoria
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Número máximo
de ejecuciones en cuadrícula aleatoria: esta opción también controla el número de iteraciones sobre un muestreo aleatorio de valores de parámetros, pero los valores no se generan aleatoriamente a
partir del rango especificado; en su lugar, se crea una matriz de todas las combinaciones posibles de valores de parámetros y se toma un muestreo aleatorio sobre la matriz. Este método es más eficiente
y menos propenso al sobremuestreo o submuestreo regional.
Si está entrenando un modelo que admite un barrido de parámetros integrado, también puede establecer un rango de valores semilla para usar e iterar sobre las semillas aleatorias también.
Esto es opcional, pero puede ser útil para evitar el sesgo introducido por la selección de semillas.
Respuestas incorrectas:
B: Si está creando un modelo de conglomerados, utilice Sweep Clustering para determinar automáticamente la cantidad óptima de conglomerados y otros parámetros.
C: Cuadrícula completa: cuando selecciona esta opción, el módulo recorre una cuadrícula predefinida por el sistema para probar diferentes combinaciones e identificar al mejor alumno. Esta opción es
útil para los casos en los que no sabe cuál podría ser la mejor configuración de parámetros y desea probar todas las combinaciones posibles de valores.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/tune-model-hyperparameters
PREGUNTA 3
Está construyendo una red neuronal recurrente para realizar una clasificación binaria.
Revisa la pérdida de entrenamiento, la pérdida de validación, la precisión del entrenamiento y la precisión de la validación para cada época de entrenamiento.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. La pérdida de entrenamiento permanece constante y la pérdida de validación permanece en un valor constante y cercano al valor de pérdida de entrenamiento cuando se entrena el modelo.
B. La pérdida de entrenamiento disminuye mientras que la pérdida de validación aumenta al entrenar el modelo.
C. La pérdida de entrenamiento se mantiene constante y la pérdida de validación disminuye al entrenar el modelo.
D. La pérdida de entrenamiento aumenta mientras que la pérdida de validación disminuye al entrenar el modelo.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Un modelo
sobreajustado es aquel en el que el rendimiento en el conjunto de trenes es bueno y continúa mejorando, mientras que el rendimiento en el conjunto de validación mejora hasta cierto punto y luego comienza a
degradarse.
Referencia:
https://machinelearningmastery.com/diagnose-overfitting-underfitting-lstm-models/
PREGUNTA 4
Está realizando un agrupamiento utilizando el algoritmo K-means.
¿Qué tres condiciones puedes usar? Cada respuesta correcta presenta una solución completa.
Explicación/Referencia:
Explicación:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
AD: el algoritmo termina cuando los centroides se estabilizan o cuando se completa un número específico de iteraciones.
C: Una medida de qué tan bien los centroides representan a los miembros de sus grupos es la suma residual de cuadrados o RSS, la distancia al cuadrado de cada vector desde su centroide sumada sobre todos los
vectores. RSS es la función objetivo y nuestro objetivo es minimizarla.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/k-means-clustering
https://nlp.stanford.edu/IR-book/html/htmledition/k-means-1.html
PREGUNTA 5
Usted es un científico de datos que construye una red neuronal convolucional profunda (CNN) para la clasificación de imágenes.
¿Cuáles son las dos acciones que deberías llevar a cabo? Cada respuesta correcta presenta una solución completa.
Respuesta correcta: BD
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: B: La regularización
del peso proporciona un enfoque para reducir el sobreajuste de un modelo de red neuronal de aprendizaje profundo en los datos de entrenamiento y mejorar el rendimiento del modelo en datos nuevos, como el conjunto
de prueba de retención.
Keras proporciona una API de regularización de peso que le permite agregar una penalización por tamaño de peso a la función de pérdida.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
D: Debido a que una capa totalmente conectada ocupa la mayoría de los parámetros, es propensa al sobreajuste. Un método para reducir el sobreajuste es la deserción. En cada etapa de entrenamiento, los nodos
individuales se "eliminan" de la red con probabilidad 1-p o se mantienen con probabilidad p, de modo que queda una red reducida; También se eliminan los bordes entrantes y salientes de un nodo descartado.
Al evitar entrenar todos los nodos en todos los datos de entrenamiento, la deserción reduce el sobreajuste.
Referencia:
https://machinelearningmastery.com/how-to-reduce-overfitting-in-deep-learning-with-weight-regularization/
https://en.wikipedia.org/wiki/Convolutional_neural_network
PREGUNTA 6
Está con un conjunto de datos de series temporales en Azure Machine Learning Studio.
Debe dividir su conjunto de datos en subconjuntos de entrenamiento y prueba mediante el módulo Dividir datos.
A. División de recomendador
B. División de expresión regular C.
División de expresión relativa D. Filas
divididas con el parámetro de división aleatoria establecido en verdadero
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Dividir filas: use esta
opción si solo desea dividir los datos en dos partes. Puede especificar el porcentaje de datos para poner en cada división, pero de forma predeterminada, los datos se dividen 50-50.
Respuestas incorrectas:
B: División de expresión regular: elija esta opción cuando desee dividir su conjunto de datos probando una sola columna para un valor.
C: División de expresión relativa: use esta opción siempre que desee aplicar una condición a una columna de números.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/split-data
PREGUNTA 7
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
cumplir con las metas establecidas. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Está creando un modelo para predecir el precio de la obra de arte de un estudiante según las siguientes variables: la duración de la educación del estudiante, el tipo de título y la forma de arte.
Solución: utilice las siguientes métricas: error absoluto medio, error absoluto medio raíz, error absoluto relativo, exactitud, precisión, recuperación, puntuación F1 y AUC.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Exactitud, Precisión,
Recuperación, puntaje F1 y AUC son métricas para evaluar modelos de clasificación.
Nota: el error absoluto medio, el error absoluto medio raíz y el error absoluto relativo están bien para el modelo de regresión lineal.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/evaluate-model
PREGUNTA 8
Está construyendo un modelo de clasificación binaria utilizando un conjunto de entrenamiento suministrado.
¿Cuáles son las tres formas posibles de lograr este objetivo? Cada respuesta correcta presenta una solución completa.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. Sancionar la clasificación
Explicación/Referencia:
Explicación: A: Pruebe modelos
penalizados Puede usar los
mismos algoritmos pero darles una perspectiva diferente del problema.
La clasificación penalizada impone un costo adicional al modelo por cometer errores de clasificación en la clase minoritaria durante el entrenamiento. Estas sanciones pueden sesgar el modelo para que preste
más atención a la clase minoritaria.
B: Puede cambiar el conjunto de datos que usa para construir su modelo predictivo para tener datos más equilibrados.
Este cambio se llama muestreo de su conjunto de datos y hay dos métodos principales que puede usar para igualar las clases: considere probar el
submuestreo cuando tenga muchos datos (decenas o cientos de miles de instancias o más)
Considere probar el sobremuestreo cuando no tenga muchos datos (decenas de miles de registros o menos)
Referencia:
https://machinelearningmastery.com/tactics-to-combat-imbalanced-classes-in-your-machine-learning-dataset/
PREGUNTA 9
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Crea un modelo para pronosticar las condiciones climáticas en función de los datos históricos.
Debe crear una canalización que ejecute un script de procesamiento para cargar datos de un almacén de datos y pasar los datos procesados a un script de entrenamiento del modelo de aprendizaje automático.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
Los dos pasos están presentes: process_step y train_step
Nota:
Los datos utilizados en la canalización se pueden producir en un paso y consumir en otro paso al proporcionar un objeto PipelineData como salida de un paso y como entrada de uno o más pasos posteriores.
Los objetos PipelineData también se usan al construir Pipelines para describir dependencias de pasos. Para especificar que un paso requiere la salida de otro paso como entrada, use un objeto PipelineData
en el constructor de ambos pasos.
Por ejemplo, el paso de entrenamiento de canalización depende de la salida de process_step_output del paso de proceso de canalización:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
datastore = ws.get_default_datastore()
process_step_output = PipelineData("processed_data", datastore=datastore) process_step =
PythonScriptStep(script_name="process.py", arguments=["--data_for_train", process_step_output],
outputs=[process_step_output], compute_target =cómputo_aml,
directorio_fuente=directorio_proceso)
tren_paso = PythonScriptStep(script_name="tren.py",
arguments=["--data_for_train", process_step_output],
inputs=[process_step_output], compute_target=aml_compute,
source_directory=train_directory)
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-pipeline-core/azureml.pipeline.core.pipelinedata?view=azure-ml-py
PREGUNTA 10
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Crea un modelo para pronosticar las condiciones climáticas en función de los datos históricos.
Debe crear una canalización que ejecute un script de procesamiento para cargar datos de un almacén de datos y pasar los datos procesados a un script de entrenamiento del modelo de aprendizaje automático.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: falta train_step.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-pipeline-core/azureml.pipeline.core.pipelinedata?view=azure-ml-py
PREGUNTA 11
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Crea un modelo para pronosticar las condiciones climáticas en función de los datos históricos.
Debe crear una canalización que ejecute un script de procesamiento para cargar datos de un almacén de datos y pasar los datos procesados a un script de entrenamiento del modelo de aprendizaje automático.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Nota: Los datos
utilizados en la canalización pueden generarse en un paso y consumirse en otro paso proporcionando un objeto PipelineData como salida de un paso y entrada de uno o más pasos posteriores.
Compare con este ejemplo, el paso de tren de canalización depende de la salida de process_step_output del paso de proceso de canalización:
datastore = ws.get_default_datastore()
process_step_output = PipelineData("processed_data", datastore=datastore) process_step =
PythonScriptStep(script_name="process.py", arguments=["--data_for_train", process_step_output],
outputs=[process_step_output], compute_target =cómputo_aml,
directorio_fuente=directorio_proceso)
tren_paso = PythonScriptStep(script_name="tren.py",
arguments=["--data_for_train", process_step_output],
inputs=[process_step_output], compute_target=aml_compute,
source_directory=train_directory)
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-pipeline-core/azureml.pipeline.core.pipelinedata?view=azure-ml-py
PREGUNTA 12
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Tiene un script de Python llamado train.py en una carpeta local llamada scripts. El script entrena un modelo de regresión mediante scikit-learn. El script incluye código para cargar un archivo de datos de
entrenamiento que también se encuentra en la carpeta de scripts.
Debe ejecutar el script como un experimento de Azure ML en un clúster de proceso denominado aml-compute.
Debe configurar la ejecución para asegurarse de que el entorno incluya los paquetes necesarios para el entrenamiento del modelo. Ha creado instancias de una variable llamada aml compute
que hace referencia al clúster de proceso de destino.
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El estimador de
scikit-learn proporciona una forma sencilla de iniciar un trabajo de capacitación de scikit-learn en un destino de proceso. Se implementa a través de la clase SKLearn, que se puede usar para admitir el
entrenamiento de CPU de un solo nodo.
Ejemplo:
from azureml.train.sklearn import SKLearn
estimador = SKLearn(source_directory=project_folder,
compute_target=compute_target,
entry_script='train_iris.py' )
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-train-scikit-learn
PREGUNTA 13
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Tiene un script de Python llamado train.py en una carpeta local llamada scripts. El script entrena un modelo de regresión mediante scikit-learn. El script incluye código para cargar un archivo de datos de
entrenamiento que también se encuentra en la carpeta de scripts.
Debe ejecutar el script como un experimento de Azure ML en un clúster de proceso denominado aml-compute.
Debe configurar la ejecución para asegurarse de que el entorno incluya los paquetes necesarios para el entrenamiento del modelo. Ha creado instancias de una variable llamada aml compute
que hace referencia al clúster de proceso de destino.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El estimador de
scikit-learn proporciona una forma sencilla de iniciar un trabajo de capacitación de scikit-learn en un destino de proceso. Se implementa a través de la clase SKLearn, que se puede usar para admitir el
entrenamiento de CPU de un solo nodo.
Ejemplo:
from azureml.train.sklearn import SKLearn
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
estimador = SKLearn(source_directory=project_folder,
compute_target=compute_target,
entry_script='train_iris.py' )
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-train-scikit-learn
PREGUNTA 14
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Tiene un script de Python llamado train.py en una carpeta local llamada scripts. El script entrena un modelo de regresión mediante scikit-learn. El script incluye código para cargar un archivo de datos de
entrenamiento que también se encuentra en la carpeta de scripts.
Debe ejecutar el script como un experimento de Azure ML en un clúster de proceso denominado aml-compute.
Debe configurar la ejecución para asegurarse de que el entorno incluya los paquetes necesarios para el entrenamiento del modelo. Ha creado instancias de una variable llamada aml compute
que hace referencia al clúster de proceso de destino.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación
Explicación/Referencia:
Explicación: El estimador de
scikit-learn proporciona una forma sencilla de iniciar un trabajo de capacitación de scikit-learn en un destino de proceso. Se implementa a través de la clase SKLearn, que se puede usar para admitir el entrenamiento
de CPU de un solo nodo.
Ejemplo:
from azureml.train.sklearn import SKLearn
estimador = SKLearn(source_directory=project_folder,
compute_target=compute_target,
entry_script='train_iris.py' )
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-train-scikit-learn
PREGUNTA 15
Usted crea una canalización en Designer para entrenar un modelo que predice los precios de los automóviles.
Debido a las relaciones no lineales en los datos, la canalización calcula el logaritmo natural (Ln) de los precios en los datos de entrenamiento, entrena un modelo para predecir este logaritmo natural del valor del
precio y luego calcula el exponencial de la etiqueta puntuada para obtener el precio previsto.
Tubería de formación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Cree una canalización de inferencia en tiempo real a partir de la canalización de entrenamiento, como se muestra en la exposición. (Haga clic en la pestaña Canalización en tiempo real ).
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe modificar la canalización de inferencia para garantizar que el servicio web devuelva el exponencial de la etiqueta puntuada como el precio previsto del automóvil y que no se requiera que las aplicaciones cliente
incluyan un valor de precio en los valores de entrada.
¿Cuáles son las tres modificaciones que debe realizar en la canalización de inferencia? Cada respuesta correcta presenta parte de la solución.
A. Conecte la salida de Aplicar transformación SQL al módulo Salida del servicio web.
B. Reemplace el módulo de entrada de servicio web con una entrada de datos que no incluya la columna de precio.
C. Agregue un módulo Seleccionar columnas antes del módulo Modelo de puntaje para seleccionar todas las columnas excepto el precio.
D. Reemplace el módulo del conjunto de datos de entrenamiento con una entrada de datos que no incluya la columna de precio.
E. Elimine el módulo Aplicar operación matemática que reemplaza el precio con su logaritmo natural del flujo de datos.
F. Elimine el módulo Aplicar transformación SQL del flujo de datos.
Respuesta correcta: AS
Sección: (ninguna)
Explicación
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Explicación/Referencia:
PREGUNTA 16
Entrena un modelo y lo registra en su espacio de trabajo de Azure Machine Learning. Está listo para implementar el modelo como un servicio web en tiempo real.
Implementa el modelo en un clúster de inferencia de Azure Kubernetes Service (AKS), pero la implementación falla porque se produce un error cuando el servicio ejecuta el script de entrada asociado con la
implementación del modelo.
Debe depurar el error modificando iterativamente el código y recargando el servicio, sin necesidad de volver a implementar el servicio para cada actualización de código.
A. Modifique la configuración de implementación del servicio de AKS para habilitar la información de la aplicación y vuelva a implementar en AKS.
B. Cree una configuración de implementación de servicios web de Azure Container Instances (ACI) e implemente el modelo en ACI.
C. Agregue un punto de interrupción a la primera línea del script de entrada y vuelva a implementar el servicio en AKS.
D. Cree una configuración de implementación de servicio web local e implemente el modelo en un contenedor Docker local.
E. Registre una nueva versión del modelo y actualice el script de entrada para cargar la nueva versión del modelo desde su ruta registrada.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Cómo evitar o
resolver errores comunes de implementación de Docker con Azure Container Instances (ACI) y Azure Kubernetes Service (AKS) mediante Azure Machine Learning.
El enfoque recomendado y más actualizado para la implementación de modelos es a través de la API Model.deploy() utilizando un objeto de entorno como parámetro de entrada. En este caso, nuestro servicio
creará una imagen base de la ventana acoplable durante la etapa de implementación y montará los modelos necesarios, todo en una sola llamada. Las tareas básicas de implementación
son:
1. Registre el modelo en el registro de modelos del espacio de trabajo.
2. Defina la configuración de inferencia:
una. Cree un objeto de entorno basado en las dependencias que especifique en el archivo yaml del entorno o use uno de nuestros entornos adquiridos. b. Cree una configuración de
inferencia (objeto InferenceConfig) basada en el entorno y el script de puntuación.
3. Implemente el modelo en el servicio Azure Container Instance (ACI) o Azure Kubernetes Service (AKS).
PREGUNTA 17
Está creando un modelo de clasificación para una empresa bancaria para identificar posibles casos de fraude con tarjetas de crédito. Planea crear el modelo en Azure Machine Learning mediante el
aprendizaje automático automatizado.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
A. normalized_mean_absolute_error B.
AUC_weighted C. precision D.
normalized_root_mean_squared_error E.
spearman_correlation
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: AUC_weighted es
una métrica de clasificación.
Nota: AUC es el área bajo la curva característica operativa del receptor. Ponderada es la media aritmética de la puntuación de cada clase, ponderada por el número de instancias verdaderas en cada
clase.
Respuestas incorrectas:
A: normalized_mean_absolute_error es una métrica de regresión, no una métrica de clasificación.
C: Al comparar enfoques para problemas de clasificación desequilibrada, considere usar métricas más allá de la precisión, como recuperación, precisión y AUROC. Puede ser que cambiar la métrica
para la que optimiza durante la selección de parámetros o la selección del modelo sea suficiente para proporcionar un rendimiento deseable al detectar la clase minoritaria.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-understand-automated-ml
PREGUNTA 18
Usted crea un modelo de aprendizaje automático mediante el diseñador de Azure Machine Learning. El modelo se publica como un servicio en tiempo real en un clúster de proceso de inferencia de Azure
Kubernetes Service (AKS). No realiza ningún cambio en la configuración del punto final implementado.
Debe proporcionar a los desarrolladores de aplicaciones la información que necesitan para consumir el punto final.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
¿Qué dos valores debería proporcionar a los desarrolladores de aplicaciones? Cada respuesta correcta presenta parte de la solución.
Respuesta correcta: CE
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: La implementación
de un modelo de Azure Machine Learning como un servicio web crea un punto de conexión de API REST. Puede enviar datos a este extremo y recibir la predicción devuelta por el modelo.
Usted crea un servicio web cuando implementa un modelo en su entorno local, Azure Container Instances, Azure Kubernetes Service o matrices de puertas programables en campo (FPGA). El URI utilizado
para acceder al servicio web se recupera mediante el SDK de Azure Machine Learning. Si la autenticación está habilitada, también puede usar el SDK para obtener las claves o tokens de autenticación.
Ejemplo:
# URL para el servicio web
scoring_uri = '<su URI de servicio web>'
# Si el servicio está autenticado, establezca la clave o la clave del
token = '<su clave o token>'
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-consume-web-service
PREGUNTA 19
Utiliza el diseñador de Azure Machine Learning para crear una canalización de entrenamiento para un modelo de regresión.
Debe preparar la canalización para la implementación como un punto final que genera predicciones de forma asincrónica para un conjunto de datos de valores de datos de entrada.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
D. Reemplazar el conjunto de datos en la canalización de entrenamiento con un módulo Introducir datos manualmente.
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Primero debe
convertir la canalización de entrenamiento en una canalización de inferencia en tiempo real. Este proceso elimina los módulos de capacitación y agrega entradas y salidas del servicio web para manejar las solicitudes.
Respuestas incorrectas:
A: Utilice el módulo Introducir datos manualmente para crear un pequeño conjunto de datos escribiendo valores.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/tutorial-designer-automobile-price-deploy
https://docs.microsoft.com/en-us/azure/machine-learning/algorithm-module-reference/enter-data-manually
PREGUNTA 20
Vuelve a entrenar un modelo existente.
Debe registrar la nueva versión de un modelo mientras mantiene la versión actual del modelo en el registro.
A. Registre un modelo con un nombre diferente al modelo existente y una propiedad personalizada denominada versión con el valor 2.
B. Registre el modelo con el mismo nombre que el modelo existente.
C. Guarde el nuevo modelo en el almacén de datos predeterminado con el mismo nombre que el modelo existente. No registre el nuevo modelo.
D. Eliminar el modelo existente y registrar el nuevo con el mismo nombre.
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Versión del modelo:
Una versión de un modelo registrado. Cuando se agrega un nuevo modelo al Registro de modelos, se agrega como Versión 1. Cada modelo registrado con el mismo nombre de modelo incrementa el número de versión.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/databricks/applications/mlflow/model-registry
PREGUNTA 21
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Crea un modelo para pronosticar las condiciones climáticas en función de los datos históricos.
Debe crear una canalización que ejecute un script de procesamiento para cargar datos de un almacén de datos y pasar los datos procesados a un script de entrenamiento del modelo de aprendizaje automático.
R. Sí
B No
Respuesta correcta: A
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Nota:
Los datos utilizados en la canalización se pueden producir en un paso y consumir en otro paso al proporcionar un objeto PipelineData como salida de un paso y como entrada de uno o más pasos posteriores.
Los objetos PipelineData también se usan al construir Pipelines para describir dependencias de pasos. Para especificar que un paso requiere la salida de otro paso como entrada, use un objeto PipelineData en
el constructor de ambos pasos.
Por ejemplo, el paso de entrenamiento de canalización depende de la salida de process_step_output del paso de proceso de canalización:
datastore = ws.get_default_datastore()
process_step_output = PipelineData("processed_data", datastore=datastore) process_step =
PythonScriptStep(script_name="process.py", arguments=["--data_for_train", process_step_output],
outputs=[process_step_output], compute_target =cómputo_aml,
directorio_fuente=directorio_proceso)
tren_paso = PythonScriptStep(script_name="tren.py",
arguments=["--data_for_train", process_step_output],
inputs=[process_step_output], compute_target=aml_compute,
source_directory=train_directory)
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-pipeline-core/azureml.pipeline.core.pipelinedata?view=azure-ml-py
PREGUNTA 22
Ejecuta un experimento que usa una clase AutoMLConfig para definir una tarea de aprendizaje automático automatizado con un máximo de diez iteraciones de entrenamiento del modelo. La tarea intentará
encontrar el modelo con mejor rendimiento en función de una métrica denominada precisión.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Debe crear un código de Python que devuelva el mejor modelo generado por la tarea de aprendizaje automático automatizado.
A. mejor_modelo = automl_run.get_details()
B. mejor_modelo = automl_run.get_metrics()
C. mejor_modelo = automl_run.get_file_names()[1]
D. mejor_modelo = automl_run.get_output()[1]
Respuesta correcta: D
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El método
get_output devuelve la mejor ejecución y el modelo ajustado.
Referencia:
https://notebooks.azure.com/azureml/projects/azureml-getting-started/html/how-to-use-azureml/automated-machine-learning/classification/auto-ml Classification.ipynb
PREGUNTA 23
Utiliza el SDK de Azure Machine Learning para ejecutar un experimento de entrenamiento que entrena un modelo de clasificación y calcula su métrica de precisión.
El modelo se volverá a entrenar cada mes a medida que haya nuevos datos disponibles.
Debe registrar el modelo para usarlo en una canalización de inferencia por lotes.
Debe registrar el modelo y asegurarse de que los modelos creados por experimentos de reentrenamiento posteriores se registren solo si su precisión es mayor que el modelo registrado actualmente.
¿Cuáles son las dos maneras posibles de lograr esta meta? Cada respuesta correcta presenta una solución completa.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: CE
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: E: Al usar etiquetas,
puede rastrear información útil, como el nombre y la versión de la biblioteca de aprendizaje automático utilizada para entrenar el modelo. Tenga en cuenta que las etiquetas deben ser alfanuméricas.
Referencia:
https://notebooks.azure.com/xavierheriat/projects/azureml-getting-started/html/how-to-use-azureml/deployment/register-model-create-image-deploy-service/ register-model- crear-imagen-desplegar-
servicio.ipynb
PREGUNTA 24
Planea usar la función Hyperdrive de Azure Machine Learning para determinar los valores óptimos de hiperparámetro al entrenar un modelo.
Debe usar Hyperdrive para probar combinaciones de los siguientes valores de hiperparámetro. No debe aplicar una política de terminación anticipada.
¿Qué dos métodos de muestreo puede utilizar? Cada respuesta correcta es una solución completa.
A. Sin muestreo B.
Muestreo en
cuadrícula C. Muestreo
bayesiano D. Muestreo aleatorio
Respuesta correcta: CD
Sección: (ninguna)
Explicación
Explicación/Referencia:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
C: El muestreo bayesiano se basa en el algoritmo de optimización bayesiano y toma decisiones inteligentes sobre los valores de hiperparámetros para muestrear a continuación. Selecciona la
muestra en función del rendimiento de las muestras anteriores, de modo que la nueva muestra mejora la métrica principal informada.
El muestreo bayesiano no admite ninguna política de finalización anticipada
Ejemplo:
from azureml.train.hyperdrive import BayesianParameterSampling from
azureml.train.hyperdrive import uniform, choice param_sampling =
BayesianParameterSampling( { "learning_rate": uniform(0.05, 0.1), "batch_size":
choice(16, 32, 64, 128)
}
)
D: En el muestreo aleatorio, los valores de los hiperparámetros se seleccionan aleatoriamente del espacio de búsqueda definido. El muestreo aleatorio permite que el espacio de búsqueda incluya
hiperparámetros discretos y continuos.
Respuestas incorrectas:
B: el muestreo de cuadrícula se puede usar si su espacio de hiperparámetros se puede definir como una opción entre valores discretos y si tiene suficiente presupuesto para buscar exhaustivamente
todos los valores en el espacio de búsqueda definido. Además, se puede utilizar la terminación anticipada automatizada de ejecuciones de bajo rendimiento, lo que reduce el desperdicio de
recursos.
}
)
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-tune-hyperparameters
PREGUNTA 25
Está entrenando modelos de aprendizaje automático en Azure Machine Learning. Utiliza Hyperdrive para ajustar el hiperparámetro.
En ejecuciones anteriores de entrenamiento y ajuste de modelos, muchos modelos mostraron un rendimiento similar.
Debe seleccionar una póliza de terminación anticipada que cumpla con los siguientes requisitos:
tiene en cuenta el rendimiento de todas las ejecuciones anteriores al evaluar la ejecución actual
evita comparar la ejecución actual solo con la ejecución de mejor rendimiento hasta la fecha
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
¿Qué dos pólizas de terminación anticipada debería usar? Cada respuesta correcta presenta parte de la solución.
A. Parada mediana B.
Bandido
C por defecto
D. Selección de truncamiento
Respuesta correcta: CA
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: la política de
detención mediana calcula los promedios móviles de todas las ejecuciones y cancela las ejecuciones cuyo mejor rendimiento es peor que la mediana de los promedios móviles.
Si no se especifica ninguna política, el servicio de ajuste de hiperparámetros permitirá que todas las ejecuciones de entrenamiento se ejecuten hasta su finalización.
Respuestas incorrectas:
B: BanditPolicy define una política de terminación anticipada basada en criterios de holgura y una frecuencia e intervalo de demora para la evaluación.
La política Bandit toma los siguientes parámetros de configuración:
slack_factor: la cantidad de holgura permitida con respecto a la carrera de entrenamiento con mejor rendimiento. Este factor especifica la holgura como una relación.
D: La política de selección de truncamiento cancela periódicamente el porcentaje dado de ejecuciones que tienen la clasificación más baja por su rendimiento en la métrica principal. La política se esfuerza por lograr
la equidad en la clasificación de las ejecuciones teniendo en cuenta la mejora del rendimiento del modelo con el tiempo de entrenamiento. Al clasificar una ejecución relativamente joven, la política usa el rendimiento
correspondiente (y anterior) de ejecuciones más antiguas para comparar. Por lo tanto, las ejecuciones no se cancelan por tener un rendimiento más bajo porque se ejecutaron durante menos tiempo que otras ejecuciones.
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-train-core/azureml.train.hyperdrive.medianstoppingpolicy
https://docs.microsoft.com/en-us/python/api/azureml-train-core/azureml.train.hyperdrive.truncationselectionpolicy
https://docs.microsoft.com/en-us/python/api/azureml-train-core/azureml.train.hyperdrive.banditpolicy
PREGUNTA 26
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos establecidos.
Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Tiene un script de Python llamado train.py en una carpeta local llamada scripts. El script entrena un modelo de regresión mediante scikit-learn. El script incluye código para cargar un archivo de datos de
entrenamiento que también se encuentra en la carpeta de scripts.
Debe ejecutar el script como un experimento de Azure ML en un clúster de proceso denominado aml-compute.
Debe configurar la ejecución para asegurarse de que el entorno incluya los paquetes necesarios para el entrenamiento del modelo. Ha creado instancias de una variable llamada aml compute
que hace referencia al clúster de proceso de destino.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Falta una línea:
conda_packages=['scikit-learn'], que es necesaria.
Ejemplo correcto:
sk_est = Estimator(source_directory='./my-sklearn-proj',
script_params=script_params,
compute_target=compute_target, entry_script='train.py',
conda_packages=['scikit-learn'])
Nota:
La clase Estimator representa un estimador genérico para entrenar datos utilizando cualquier marco proporcionado.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Esta clase está diseñada para usarse con marcos de aprendizaje automático que aún no tienen un estimador preconfigurado de Azure Machine Learning. Existen estimadores preconfigurados para
Chainer, PyTorch, TensorFlow y SKLearn.
Ejemplo:
from azureml.train.estimator import Estimator
script_params = { #
para montar archivos a los que hace referencia el
conjunto de datos mnist '--carpeta de datos':
ds.as_named_input('mnist').as_mount(), '--regularization': 0.8
}
Referencia:
https://docs.microsoft.com/en-us/python/api/azureml-train-core/azureml.train.estimator.estimator
PREGUNTA 27
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Está creando un modelo para predecir el precio de la obra de arte de un estudiante según las siguientes variables: la duración de la educación del estudiante, el tipo de título y la forma de arte.
Solución: Utilice las siguientes métricas: Exactitud, Precisión, Recuperación, puntuación F1 y AUC.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Esas son métricas
para evaluar modelos de clasificación; en su lugar, utilice: Error absoluto medio, Error absoluto medio raíz, Error absoluto relativo, Error cuadrático relativo y el Coeficiente de determinación.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/evaluate-model
PREGUNTA 28
Nota: Esta pregunta es parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir con los objetivos
establecidos. Algunos conjuntos de preguntas pueden tener más de una solución correcta, mientras que otros pueden no tener una solución correcta.
Después de responder una pregunta en esta sección, NO podrá regresar a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión.
Está creando un modelo para predecir el precio de la obra de arte de un estudiante según las siguientes variables: la duración de la educación del estudiante, el tipo de título y la forma de arte.
Solución: utilice las siguientes métricas: error cuadrático relativo, coeficiente de determinación, exactitud, precisión, recuperación, puntuación F1 y AUC.
R. Sí
B No
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El error cuadrático
relativo, el coeficiente de determinación son buenas métricas para evaluar el modelo de regresión lineal, pero las otras son métricas para modelos de clasificación.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/evaluate-model
PREGUNTA 29
Eres un científico de datos que crea un modelo de regresión lineal.
Debe determinar qué tan cerca se ajustan los datos a la línea de regresión.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: El coeficiente de
determinación, a menudo denominado R2, representa el poder predictivo del modelo como un valor entre 0 y 1. Cero significa que el modelo es aleatorio (no explica nada); 1 significa que hay un
ajuste perfecto. Sin embargo, se debe tener precaución al interpretar los valores de R2, ya que los valores bajos pueden ser completamente normales y los valores altos pueden ser sospechosos.
Respuestas incorrectas:
A: El error cuadrático medio (RMSE) crea un valor único que resume el error en el modelo. Al elevar al cuadrado la diferencia, la métrica ignora la diferencia entre la predicción excesiva y la predicción
insuficiente.
E: el error absoluto medio (MAE) mide qué tan cerca están las predicciones de los resultados reales; por lo tanto, una puntuación más baja es mejor.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio-module-reference/evaluate-model
PREGUNTA 30
Está creando una clasificación binaria utilizando un modelo de regresión logística de dos clases.
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
E. Precisión F.
Error cuadrático medio
Respuesta correcta: B
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Se puede
inspeccionar la tasa de verdaderos positivos frente a la tasa de falsos positivos en la curva de características operativas del receptor (ROC) y el valor correspondiente del área bajo la curva (AUC). Cuanto
más cerca esté esta curva de la esquina superior izquierda, mejor será el rendimiento del clasificador (es decir, maximizar la tasa de verdaderos positivos y minimizar la tasa de falsos positivos). Las curvas
que están cerca de la diagonal de la gráfica son el resultado de clasificadores que tienden a hacer predicciones cercanas a las conjeturas aleatorias.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio/evaluate-model-performance#evaluating-a-binary-classification-model
PREGUNTA 31
Está creando un modelo de aprendizaje automático para traducir contenido textual en inglés a contenido textual en francés.
Debe crear y entrenar el modelo de aprendizaje automático para aprender la secuencia del contenido textual.
Respuesta correcta: C
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Para traducir un
corpus de texto en inglés al francés, necesitamos construir una red neuronal recurrente (RNN).
Nota: los RNN están diseñados para tomar secuencias de texto como entradas o devolver secuencias de texto como salidas, o ambas cosas. Se denominan recurrentes porque las capas ocultas de la red
tienen un bucle en el que la salida y el estado de la celda de cada paso de tiempo se convierten en entradas en el siguiente paso de tiempo. Esta recurrencia sirve como una forma de memoria. Permite que la
información contextual fluya a través de la red para que los resultados relevantes de los pasos de tiempo anteriores se puedan aplicar a las operaciones de la red en el paso de tiempo actual.
Referencia:
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2
Machine Translated by Google
https://towardsdatascience.com/language-translation-with-rnns-d84d43b40571
PREGUNTA 32
Creas un modelo de clasificación binaria.
¿Qué dos métricas puedes usar? Cada respuesta correcta presenta una solución completa.
Respuesta correcta: BC
Sección: (ninguna)
Explicación
Explicación/Referencia:
Explicación: Las métricas de
evaluación disponibles para los modelos de clasificación binaria son: Exactitud, Precisión, Recuperación, Puntuación F1 y AUC.
Nota: Una pregunta muy natural es: 'De los individuos a quienes el modelo, ¿cuántos fueron clasificados correctamente (TP)?' Esta
pregunta se puede responder observando la Precisión del modelo, que es la proporción de positivos que se clasifican correctamente.
Referencia:
https://docs.microsoft.com/en-us/azure/machine-learning/studio/evaluate-model-performance
https://www.gratisexam.com/
885CB989129A5F974833949052CFB2F2