Compartir a través de


Propiedades de configuración de Apache Spark y Apache Hadoop (HDFS)

Se aplica a: SQL Server 2019 (15.x)

Importante

El complemento Clústeres de macrodatos de Microsoft SQL Server 2019 se va a retirar. La compatibilidad con Clústeres de macrodatos de SQL Server 2019 finalizará el 28 de febrero de 2025. Todos los usuarios existentes de SQL Server 2019 con Software Assurance serán totalmente compatibles con la plataforma, y el software se seguirá conservando a través de actualizaciones acumulativas de SQL Server hasta ese momento. Para más información, consulte la entrada de blog sobre el anuncio y Opciones de macrodatos en la plataforma Microsoft SQL Server.

Los clústeres de macrodatos admiten la configuración del tiempo de implementación y el tiempo posterior a la implementación de los componentes de Apache Spark y Hadoop en los ámbitos de servicio y recursos. Los clústeres de macrodatos usan los mismos valores de configuración predeterminados que el proyecto de código abierto correspondiente para la mayoría de las opciones. La configuración que cambiamos se muestra a continuación junto con una descripción y su valor predeterminado. Aparte del recurso de puerta de enlace, no hay ninguna diferencia entre la configuración que se puede configurar en el ámbito de servicio y el ámbito del recurso.

Puede encontrar todas las configuraciones posibles y los valores predeterminados de cada una en el sitio de documentación de Apache asociado:

Los valores que no se admiten en la configuración también se enumeran a continuación.

Nota:

Para incluir Spark en el grupo de almacenamiento, establezca el valor includeSpark booleano en el bdc.json archivo de configuración en spec.resources.storage-0.spec.settings.spark. Consulte Configuración de Apache Spark y Apache Hadoop en clústeres de macrodatos para obtener instrucciones.

Configuración predeterminada de Spark específica de clústeres de macrodatos

La configuración de Spark siguiente es la que tiene valores predeterminados específicos de BDC, pero que son configurables por el usuario. No se incluye la configuración administrada por el sistema.

Nombre de la configuración Descripción Tipo Valor predeterminado
capacity-scheduler.yarn.scheduler.capacity.maximum-applications Número máximo de aplicaciones en el sistema que pueden estar activas simultáneamente tanto en ejecución como pendientes. Int 10 000
capacity-scheduler.yarn.scheduler.capacity.resource-calculator Implementación de ResourceCalculator que se va a usar para comparar recursos en el programador. cuerda / cadena org.apache.hadoop.yarn.util.resource.DominantResourceCalculator
capacity-scheduler.yarn.scheduler.capacity.root.queues Programador de capacidad con cola predefinida denominada raíz. cuerda / cadena Predeterminado.
capacity-scheduler.yarn.scheduler.capacity.root.default.capacity Capacidad de cola en porcentaje (%) como capacidad mínima de cola de recursos absoluta para la cola raíz. Int 100
spark-defaults-conf.spark.driver.cores Número de núcleos que se usarán para el proceso de controlador, solo en modo de clúster. Int 1
spark-defaults-conf.spark.driver.memoryOverhead Cantidad de memoria fuera del montón que se asignará por controlador en modo de clúster. Int 384
spark-defaults-conf.spark.executor.instances Número de ejecutores para la asignación estática. Int 1
spark-defaults-conf.spark.executor.cores Número de núcleos que se van a usar en cada ejecutor. Int 1
spark-defaults-conf.spark.driver.memory Cantidad de memoria que se va a usar para el proceso del controlador. cuerda / cadena 1g
spark-defaults-conf.spark.executor.memory Cantidad de memoria que se va a usar por proceso de ejecutor. cuerda / cadena 1g
spark-defaults-conf.spark.executor.memoryOverhead Cantidad de memoria fuera del montón que se va a asignar por ejecutor. Int 384
yarn-site.yarn.nodemanager.resource.memory-mb Cantidad de memoria física, en MB, que se puede asignar para contenedores. Int 8192
yarn-site.yarn.scheduler.maximum-allocation-mb Asignación máxima para cada solicitud de contenedor en el administrador de recursos. Int 8192
yarn-site.yarn.nodemanager.resource.cpu-vcores Número de núcleos de CPU que se pueden asignar para contenedores. Int 32
yarn-site.yarn.scheduler.maximum-allocation-vcores Asignación máxima para cada solicitud de contenedor en el administrador de recursos, en términos de núcleos de CPU virtuales. Int 8
yarn-site.yarn.nodemanager.linux-container-executor.secure-mode.pool-user-count Número de usuarios del grupo para el ejecutor de contenedor de Linux en modo seguro. Int 6
yarn-site.yarn.scheduler.capacity.maximum-am-resource-percent Porcentaje máximo de recursos del clúster que se pueden usar para ejecutar patrones de aplicación. flotante 0,1
yarn-site.yarn.nodemanager.container-executor.class Ejecutores de contenedor para un sistema operativo específico. cuerda / cadena org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor
capacity-scheduler.yarn.scheduler.capacity.root.default.user-limit-factor El múltiplo de la capacidad de cola que se puede configurar para permitir que un solo usuario adquiera más recursos. Int 1
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-capacity Capacidad máxima de cola en porcentaje (%) como un valor float OR como capacidad máxima de cola de recursos absoluta. Al establecer este valor en -1 se establece la capacidad máxima en 100%. Int 100
capacity-scheduler.yarn.scheduler.capacity.root.default.state El estado de la cola puede ser uno de en ejecución o detenido. cuerda / cadena CORRIENTE
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-application-lifetime Duración máxima de una aplicación que se envía a una cola en segundos. Cualquier valor menor o igual que cero se considerará deshabilitado. Int -1
capacity-scheduler.yarn.scheduler.capacity.root.default.default-application-lifetime Duración predeterminada de una aplicación que se envía a una cola en segundos. Cualquier valor menor o igual que cero se considerará deshabilitado. Int -1
capacity-scheduler.yarn.scheduler.capacity.node-locality-delay Número de oportunidades de programación perdidas después de las cuales capacityScheduler intenta programar contenedores locales en bastidor. Int 40
capacity-scheduler.yarn.scheduler.capacity.rack-locality-additional-delay Número de oportunidades adicionales de programación perdidas sobre las de retraso de la localidad del nodo, después de las cuales capacityScheduler intenta programar contenedores fuera del conmutador. Int -1
hadoop-env. HADOOP_HEAPSIZE_MAX Tamaño máximo predeterminado del montón de todos los procesos JVM de Hadoop. Int 2048
yarn-env. YARN_RESOURCEMANAGER_HEAPSIZE Tamaño del montón de Yarn ResourceManager. Int 2048
yarn-env. YARN_NODEMANAGER_HEAPSIZE Tamaño del montón de NodeManager de Yarn. Int 2048
mapred-env. HADOOP_JOB_HISTORYSERVER_HEAPSIZE Tamaño del montón del historial de trabajos de HadoopServer. Int 2048
hive-env. HADOOP_HEAPSIZE Tamaño del montón de Hadoop para Hive. Int 2048
livy-conf.livy.server.session.timeout-check Compruebe si se ha agotado el tiempo de espera de la sesión del servidor Livy. booleano cierto
livy-conf.livy.server.session.timeout-check.skip-busy Omitir el tiempo de espera de la sesión del servidor Livy. booleano cierto
livy-conf.livy.server.session.timeout Tiempo de espera de la sesión del servidor livy en (ms/s/m | min/h/d/y). cuerda / cadena 2h
livy-conf.livy.server.yarn.poll-interval Intervalo de sondeo para yarn en el servidor livy en (ms/s/m | min/h/d/y). cuerda / cadena 500 ms
livy-conf.livy.rsc.jars Jars livy RSC. cuerda / cadena local:/opt/livy/rsc-jars/livy-api.jar,local:/opt/livy/rsc-jars/livy-rsc.jar,local:/opt/livy/rsc-jars/netty-all.jar
livy-conf.livy.repl.jars Jar de livy repl. cuerda / cadena local:/opt/livy/repl_2.11-jars/livy-core.jar,local:/opt/livy/repl_2.11-jars/livy-repl.jar,local:/opt/livy/repl_2.11-jars/commons-codec.jar
livy-conf.livy.rsc.sparkr.package Paquete Livy RSC SparkR. cuerda / cadena hdfs:///system/livy/sparkr.zip
livy-env. LIVY_SERVER_JAVA_OPTS Opciones de Java de Livy Server. cuerda / cadena -Xmx2g
spark-defaults-conf.spark.r.backendConnectionTimeout Tiempo de espera de conexión establecido por el proceso de R en su conexión a RBackend en segundos. Int 86400
spark-defaults-conf.spark.pyspark.python Opción de Python para Spark. cuerda / cadena /opt/bin/python3
spark-defaults-conf.spark.yarn.jars Jars de Yarn. cuerda / cadena local:/opt/spark/jars/*
spark-history-server-conf.spark.history.fs.cleaner.maxAge Antigüedad máxima de los archivos del historial de trabajos antes de que se eliminen mediante el limpiador del historial del sistema de archivos en (ms/s/m | min/h/d/y). cuerda / cadena 7d
spark-history-server-conf.spark.history.fs.cleaner.interval Intervalo de limpieza del historial de Spark en (ms/s/m | min/h/d/y). cuerda / cadena 12h
hadoop-env. HADOOP_CLASSPATH Establece la ruta de clase de Hadoop adicional. cuerda / cadena
spark-env. SPARK_DAEMON_MEMORY Memoria del demonio de Spark. cuerda / cadena 2g
yarn-site.yarn.log-aggregation.retain-seconds Cuando la agregación de registros está habilitada, esta propiedad determina el número de segundos para conservar los registros. Int 604800
yarn-site.yarn.nodemanager.log-aggregation.compression-type Tipo de compresión para la agregación de registros para NodeManager de Yarn. cuerda / cadena gz
yarn-site.yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds Intervalo de segundos para la supervisión de la supervisión en la agregación de registros de NodeManager. Int tres mil seiscientos
yarn-site.yarn.scheduler.minimum-allocation-mb Asignación mínima para cada solicitud de contenedor en Resource Manager, en MB. Int 512
yarn-site.yarn.scheduler.minimum-allocation-vcores Asignación mínima para cada solicitud de contenedor en Resource Manager en términos de núcleos de CPU virtuales. Int 1
yarn-site.yarn.nm.liveness-monitor.expiry-interval-ms Cuánto tiempo se espera hasta que un administrador de nodos se considera inactivo. Int 180000
yarn-site.yarn.resourcemanager.zk-timeout-ms Tiempo de espera de sesión de "ZooKeeper" en milisegundos. Int 40000
capacidad-scheduler.yarn.scheduler.capacity.root.default.acl_application_max_priority La ACL de quién puede enviar aplicaciones con prioridad configurada. Por ejemplo, [user={name} group={name} max_priority={priority} default_priority={priority}]. cuerda / cadena *
includeSpark Boolean para configurar si los trabajos de Spark se pueden ejecutar en el grupo de almacenamiento. booleano cierto
enableSparkOnK8s Boolean para configurar si se habilita Spark en K8s, lo que agrega contenedores para K8s en el encabezado de Spark. booleano falso
sparkVersion La versión de Spark cuerda / cadena 2,4
spark-env. PYSPARK_ARCHIVES_PATH Ruta de acceso a los archivos jar de archivo pyspark usados en trabajos de Spark. cuerda / cadena local:/opt/spark/python/lib/pyspark.zip,local:/opt/spark/python/lib/py4j-0.10.7-src.zip

En las secciones siguientes se enumeran las configuraciones no admitidas.

Configuración predeterminada de HDFS específica de clústeres de macrodatos

La configuración de HDFS siguiente es la que tiene valores predeterminados específicos de BDC, pero que son configurables por el usuario. No se incluye la configuración administrada por el sistema.

Nombre de la configuración Descripción Tipo Valor predeterminado
hdfs-site.dfs.replication Replicación de bloques predeterminada. Int 2
hdfs-site.dfs.namenode.provided.enabled Permite que el nodo de nombre controle los almacenamientos proporcionados. booleano cierto
hdfs.site.dfs.namenode.mount.acls.enabled Establézcalo en true para heredar las ACL (listas de control de acceso) de los almacenes remotos durante el montaje. booleano falso
hdfs-site.dfs.datanode.provided.enabled Permite que el nodo de datos controle los almacenamientos proporcionados. booleano cierto
hdfs-site.dfs.datanode.provided.volume.lazy.load Habilite la carga diferida en el nodo de datos para los almacenamientos proporcionados. booleano cierto
hdfs-site.dfs.provided.aliasmap.inmemory.enabled Habilite la asignación de alias en memoria para los almacenamientos proporcionados. booleano cierto
hdfs-site.dfs.provided.aliasmap.class Clase que se usa para especificar el formato de entrada de los bloques en los almacenamientos proporcionados. cuerda / cadena org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.InMemoryLevelDBAliasMapClient
hdfs-site.dfs.namenode.provided.aliasmap.class Clase que se usa para especificar el formato de entrada de los bloques en los almacenamientos proporcionados para namenode. cuerda / cadena org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.NamenodeInMemoryAliasMapClient
hdfs-site.dfs.provided.aliasmap.load.retries Número de reintentos en el nodo de datos para cargar el mapa de alias proporcionado. Int 0
hdfs-site.dfs.provided.aliasmap.inmemory.batch-size Tamaño del lote al recorrer en iteración la base de datos que respalda el mapa de alias. Int 500
hdfs-site.dfs.datanode.provided.volume.readthrough Habilite readthrough para los almacenamientos proporcionados en datanode. booleano cierto
hdfs-site.dfs.provided.cache.capacity.mount Habilite el montaje de capacidad de caché para los almacenamientos proporcionados. booleano cierto
hdfs-site.dfs.provided.overreplication.factor Factor de sobreplicación para los almacenamientos proporcionados. Número de bloques de caché en BDC creados por bloque HDFS remoto. flotante 1
hdfs-site.dfs.provided.cache.capacity.fraction Fracción de capacidad de caché para el almacenamiento proporcionado. Fracción de la capacidad total del clúster que se puede usar para almacenar en caché los datos de los almacenes proporcionados. flotante 0,01
hdfs-site.dfs.provided.cache.capacity.bytes Capacidad de clúster que se va a usar como espacio de caché para bloques proporcionados, en bytes. Int -1
hdfs-site.dfs.ls.limit Limite el número de archivos impresos por ls. Int 500
hdfs-env. HDFS_NAMENODE_OPTS Opciones de Namenode de HDFS. cuerda / cadena -Dhadoop.security.logger=INFO,RFAS -Xmx2g
hdfs-env. HDFS_DATANODE_OPTS Opciones de datanode de HDFS. cuerda / cadena -Dhadoop.security.logger=ERROR,RFAS -Xmx2g
hdfs-env. HDFS_ZKFC_OPTS Opciones de ZKFC de HDFS. cuerda / cadena -Xmx1g
hdfs-env. HDFS_JOURNALNODE_OPTS Opciones de JournalNode de HDFS. cuerda / cadena -Xmx2g
hdfs-env. HDFS_AUDIT_LOGGER Opciones del registrador de auditoría de HDFS. cuerda / cadena INFO,RFAAUDIT
core-site.hadoop.security.group.mapping.ldap.search.group.hierarchy.levels Niveles de jerarquía para el grupo principal de búsqueda LDAP de Hadoop del sitio. Int 10
core-site.fs.permissions.umask-mode Modo umask de permiso. cuerda / cadena 077
core-site.hadoop.security.kms.client.failover.max.retries Número máximo de reintentos para la conmutación por error de cliente. Int 20
zoo-cfg.tickTime Hora de graduación para la configuración de "ZooKeeper". Int 2000
zoo-cfg.initLimit Hora de inicialización para la configuración de "ZooKeeper". Int 10
zoo-cfg.syncLimit Hora de sincronización para la configuración de "ZooKeeper". Int 5
zoo-cfg.maxClientCnxns Número máximo de conexiones de cliente para la configuración de "ZooKeeper". Int 60
zoo-cfg.minSessionTimeout Tiempo de espera de sesión mínimo para la configuración de "ZooKeeper". Int 4000
zoo-cfg.maxSessionTimeout Tiempo máximo de espera de sesión para la configuración de "ZooKeeper". Int 40000
zoo-cfg.autopurge.snapRetainCount Snap Retain count for Autopurge 'ZooKeeper' config(Recuento de retención de snap para la configuración de "ZooKeeper" de Autopurge). Int 3
zoo-cfg.autopurge.purgeInterval Intervalo de purga para la configuración de "ZooKeeper" de depuración automática. Int 0
zookeeper-java-env. JVMFLAGS Marcas de JVM para el entorno de Java en "ZooKeeper". cuerda / cadena -Xmx1G -Xms1G
zookeeper-log4j-properties.zookeeper.console.threshold Umbral para la consola log4j en "ZooKeeper". cuerda / cadena INFORMACIÓN
zoo-cfg.zookeeper.request.timeout Controla el tiempo de espera de la solicitud "ZooKeeper" en milisegundos. Int 40000
kms-site.hadoop.security.kms.encrypted.key.cache.size Tamaño de caché de la clave cifrada en kms de Hadoop. Int 500

Configuración de puerta de enlace predeterminada específica de clústeres de macrodatos

La configuración de puerta de enlace siguiente es la que tiene valores predeterminados específicos de BDC, pero que son configurables por el usuario. No se incluye la configuración administrada por el sistema. La configuración de la puerta de enlace solo se puede configurar en el ámbito del recurso .

Nombre de la configuración Descripción Tipo Valor predeterminado
gateway-site.gateway.httpclient.socketTimeout Tiempo de espera de socket para el cliente HTTP en la puerta de enlace en (ms/s/m). cuerda / cadena los 90
gateway-site.sun.security.krb5.debug Depuración para la seguridad de Kerberos. booleano cierto
knox-env. KNOX_GATEWAY_MEM_OPTS Opciones de memoria de la puerta de enlace de Knox. cuerda / cadena -Xmx2g

Configuraciones de Spark no admitidas

Las siguientes spark configuraciones no son compatibles y no se pueden cambiar en el contexto del clúster de macrodatos.

Categoría Subcategoría Archivo Configuraciones no admitidas
yarn-site yarn-site.xml yarn.log-aggregation-enable
yarn.log.server.url
yarn.nodemanager.pmem-check-enabled
yarn.nodemanager.vmem-check-enabled
yarn.nodemanager.aux-services
yarn.resourcemanager.address
yarn.nodemanager.address
yarn.client.failover:no-ha-proxy-provider
yarn.client.failover-proxy-provider
yarn.http.policy
yarn.nodemanager.linux-container-executor.secure-mode.use-pool-user
yarn.nodemanager.linux-container-executor.secure-mode.pool-user-prefix
yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user
yarn.acl.enable
yarn.admin.acl
yarn.resourcemanager.hostname
yarn.resourcemanager.principal
yarn.resourcemanager.keytab
yarn.resourcemanager.webapp.spnego-keytab-file
yarn.resourcemanager.webapp.spnego-principal
yarn.nodemanager.principal
yarn.nodemanager.keytab
yarn.nodemanager.webapp.spnego-keytab-file
yarn.nodemanager.webapp.spnego-principal
yarn.resourcemanager.ha.enabled
yarn.resourcemanager.cluster-id
yarn.resourcemanager.zk-address
yarn.resourcemanager.ha.rm-ids
yarn.resourcemanager.hostname.*
programador de capacidad capacity-scheduler.xml yarn.scheduler.capacity.root.acl_submit_applications
yarn.scheduler.capacity.root.acl_administer_queue
yarn.scheduler.capacity.root.default.acl_application_max_priority
yarn-env yarn-env.sh
spark-defaults-conf spark-defaults.conf spark.yarn.archive
spark.yarn.historyServer.address
spark.eventLog.enabled
spark.eventLog.dir
spark.sql.warehouse.dir
spark.sql.hive.metastore.version
spark.sql.hive.metastore.jars
spark.extraListeners
spark.metrics.conf
spark.ssl.enabled
spark.authenticate
spark.network.crypto.enabled
spark.ssl.keyStore
spark.ssl.keyStorePassword
spark.ui.enabled
spark-env spark-env.sh SPARK_NO_DAEMONIZE
SPARK_DIST_CLASSPATH
spark-history-server-conf spark-history-server.conf spark.history.fs.logDirectory
spark.ui.proxyBase
spark.history.fs.cleaner.enabled
spark.ssl.enabled
spark.authenticate
spark.network.crypto.enabled
spark.ssl.keyStore
spark.ssl.keyStorePassword
spark.history.kerberos.enabled
spark.history.kerberos.principal
spark.history.kerberos.keytab
spark.ui.filters
spark.acls.enable
spark.history.ui.acls.enable
spark.history.ui.admin.acls
spark.history.ui.admin.acls.groups
livy-conf livy.conf livy.keystore
livy.keystore.password
livy.spark.master
livy.spark.deploy-mode
livy.rsc.jars
livy.repl.jars
livy.rsc.pyspark.archives
livy.rsc.sparkr.package
livy.repl.enable-hive-context
livy.superusers
livy.server.auth.type
livy.server.launch.kerberos.keytab
livy.server.launch.kerberos.principal
livy.server.auth.kerberos.principal
livy.server.auth.kerberos.keytab
livy.impersonation.enabled
livy.server.access-control.enabled
livy.server.access-control.*
livy-env livy-env.sh
hive-site hive-site.xml javax.jdo.option.ConnectionURL
javax.jdo.option.ConnectionDriverName
javax.jdo.option.ConnectionUserName
javax.jdo.option.ConnectionPassword
hive.metastore.uris
hive.metastore.pre.event.listeners
hive.security.authorization.enabled
hive.security.metastore.authenticator.manager
hive.security.metastore.authorization.manager
hive.metastore.use.SSL
hive.metastore.keystore.path
hive.metastore.keystore.password
hive.metastore.truststore.path
hive.metastore.truststore.password
hive.metastore.kerberos.keytab.file
hive.metastore.kerberos.principal
hive.metastore.sasl.enabled
hive.metastore.execute.setugi
hive.cluster.delegation.token.store.class
hive-env hive-env.sh

Configuraciones de HDFS no admitidas

Las siguientes hdfs configuraciones no son compatibles y no se pueden cambiar en el contexto del clúster de macrodatos.

Categoría Subcategoría Archivo Configuraciones no admitidas
core-site core-site.xml fs.defaultFS
ha.zookeeper.quorum
hadoop.tmp.dir
hadoop.rpc.protection
hadoop.security.auth_to_local
hadoop.security.authentication
hadoop.security.authorization
hadoop.http.authentication.simple.anonymous.allowed
hadoop.http.authentication.type
hadoop.http.authentication.kerberos.principal
hadoop.http.authentication.kerberos.keytab
hadoop.http.filter.initializers
hadoop.security.group.mapping.*
hadoop.security.key.provider.path
mapred-env mapred-env.sh
hdfs-site hdfs-site.xml dfs.namenode.name.dir
dfs.datanode.data.dir
dfs.namenode.acls.enabled
dfs.namenode.datanode.registration.ip-hostname-check
dfs.client.retry.policy.enabled
dfs.permissions.enabled
dfs.nameservices
dfs.ha.namenodes.nmnode-0
dfs.namenode.rpc-address.nmnode-0.*
dfs.namenode.shared.edits.dir
dfs.ha.automatic-failover.enabled
dfs.ha.fencing.methods
dfs.journalnode.edits.dir
dfs.client.failover.proxy.provider.nmnode-0
dfs.namenode.http-address
dfs.namenode.httpS-address
dfs.http.policy
dfs.encrypt.data.transfer
dfs.block.access.token.enable
dfs.data.transfer.protection
dfs.encrypt.data.transfer.cipher.suites
dfs.https.port
dfs.namenode.keytab.file
dfs.namenode.kerberos.principal
dfs.namenode.kerberos.internal.spnego.principal
dfs.datanode.data.dir.perm
dfs.datanode.address
dfs.datanode.http.address
dfs.datanode.ipc.address
dfs.datanode.https.address
dfs.datanode.keytab.file
dfs.datanode.kerberos.principal
dfs.journalnode.keytab.file
dfs.journalnode.kerberos.principal
dfs.journalnode.kerberos.internal.spnego.principal
dfs.web.authentication.kerberos.keytab
dfs.web.authentication.kerberos.principal
dfs.webhdfs.enabled
dfs.permissions.superusergroup
hdfs-env hdfs-env.sh HADOOP_HEAPSIZE_MAX
zoo-cfg zoo.cfg secureClientPort
clientPort
dataDir
dataLogDir
4lw.commands.whitelist
zookeeper-java-env java.env ZK_LOG_DIR
SERVER_JVMFLAGS
zookeeper-log4j-properties log4j.properties (zookeeper) log4j.rootLogger
log4j.appender.CONSOLE.*

Nota:

Este artículo contiene el término lista blanca, un término que Microsoft considera que no distingue en este contexto. El término aparece en este artículo porque actualmente aparece en el software. Cuando se quite el término del software, se quitará también del artículo.

Configuraciones no admitidas gateway

Las siguientes gateway configuraciones para no se admiten y no se pueden cambiar en el contexto del clúster de macrodatos.

Categoría Subcategoría Archivo Configuraciones no admitidas
gateway-site gateway-site.xml gateway.port
gateway.path
gateway.gateway.conf.dir
gateway.hadoop.kerberos.secured
java.security.krb5.conf
java.security.auth.login.config
gateway.websocket.feature.enabled
gateway.scope.cookies.feature.enabled
ssl.exclude.protocols
ssl.include.ciphers

Pasos siguientes

Configuración de clústeres de macrodatos de SQL Server