Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Se aplica a: SQL Server 2019 (15.x)
Importante
El complemento Clústeres de macrodatos de Microsoft SQL Server 2019 se va a retirar. La compatibilidad con Clústeres de macrodatos de SQL Server 2019 finalizará el 28 de febrero de 2025. Todos los usuarios existentes de SQL Server 2019 con Software Assurance serán totalmente compatibles con la plataforma, y el software se seguirá conservando a través de actualizaciones acumulativas de SQL Server hasta ese momento. Para más información, consulte la entrada de blog sobre el anuncio y Opciones de macrodatos en la plataforma Microsoft SQL Server.
Los clústeres de macrodatos admiten la configuración del tiempo de implementación y el tiempo posterior a la implementación de los componentes de Apache Spark y Hadoop en los ámbitos de servicio y recursos. Los clústeres de macrodatos usan los mismos valores de configuración predeterminados que el proyecto de código abierto correspondiente para la mayoría de las opciones. La configuración que cambiamos se muestra a continuación junto con una descripción y su valor predeterminado. Aparte del recurso de puerta de enlace, no hay ninguna diferencia entre la configuración que se puede configurar en el ámbito de servicio y el ámbito del recurso.
Puede encontrar todas las configuraciones posibles y los valores predeterminados de cada una en el sitio de documentación de Apache asociado:
- Apache Spark: https://spark.apache.org/docs/latest/configuration.html
- Apache Hadoop:
- Colmena: https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties#ConfigurationProperties-MetaStore
- Livy: https://github.com/cloudera/livy/blob/master/conf/livy.conf.template
- Apache Knox Gateway: https://knox.apache.org/books/knox-0-14-0/user-guide.html#Gateway+Details
Los valores que no se admiten en la configuración también se enumeran a continuación.
Nota:
Para incluir Spark en el grupo de almacenamiento, establezca el valor includeSpark
booleano en el bdc.json
archivo de configuración en spec.resources.storage-0.spec.settings.spark
. Consulte Configuración de Apache Spark y Apache Hadoop en clústeres de macrodatos para obtener instrucciones.
Configuración predeterminada de Spark específica de clústeres de macrodatos
La configuración de Spark siguiente es la que tiene valores predeterminados específicos de BDC, pero que son configurables por el usuario. No se incluye la configuración administrada por el sistema.
Nombre de la configuración | Descripción | Tipo | Valor predeterminado |
---|---|---|---|
capacity-scheduler.yarn.scheduler.capacity.maximum-applications | Número máximo de aplicaciones en el sistema que pueden estar activas simultáneamente tanto en ejecución como pendientes. | Int | 10 000 |
capacity-scheduler.yarn.scheduler.capacity.resource-calculator | Implementación de ResourceCalculator que se va a usar para comparar recursos en el programador. | cuerda / cadena | org.apache.hadoop.yarn.util.resource.DominantResourceCalculator |
capacity-scheduler.yarn.scheduler.capacity.root.queues | Programador de capacidad con cola predefinida denominada raíz. | cuerda / cadena | Predeterminado. |
capacity-scheduler.yarn.scheduler.capacity.root.default.capacity | Capacidad de cola en porcentaje (%) como capacidad mínima de cola de recursos absoluta para la cola raíz. | Int | 100 |
spark-defaults-conf.spark.driver.cores | Número de núcleos que se usarán para el proceso de controlador, solo en modo de clúster. | Int | 1 |
spark-defaults-conf.spark.driver.memoryOverhead | Cantidad de memoria fuera del montón que se asignará por controlador en modo de clúster. | Int | 384 |
spark-defaults-conf.spark.executor.instances | Número de ejecutores para la asignación estática. | Int | 1 |
spark-defaults-conf.spark.executor.cores | Número de núcleos que se van a usar en cada ejecutor. | Int | 1 |
spark-defaults-conf.spark.driver.memory | Cantidad de memoria que se va a usar para el proceso del controlador. | cuerda / cadena | 1g |
spark-defaults-conf.spark.executor.memory | Cantidad de memoria que se va a usar por proceso de ejecutor. | cuerda / cadena | 1g |
spark-defaults-conf.spark.executor.memoryOverhead | Cantidad de memoria fuera del montón que se va a asignar por ejecutor. | Int | 384 |
yarn-site.yarn.nodemanager.resource.memory-mb | Cantidad de memoria física, en MB, que se puede asignar para contenedores. | Int | 8192 |
yarn-site.yarn.scheduler.maximum-allocation-mb | Asignación máxima para cada solicitud de contenedor en el administrador de recursos. | Int | 8192 |
yarn-site.yarn.nodemanager.resource.cpu-vcores | Número de núcleos de CPU que se pueden asignar para contenedores. | Int | 32 |
yarn-site.yarn.scheduler.maximum-allocation-vcores | Asignación máxima para cada solicitud de contenedor en el administrador de recursos, en términos de núcleos de CPU virtuales. | Int | 8 |
yarn-site.yarn.nodemanager.linux-container-executor.secure-mode.pool-user-count | Número de usuarios del grupo para el ejecutor de contenedor de Linux en modo seguro. | Int | 6 |
yarn-site.yarn.scheduler.capacity.maximum-am-resource-percent | Porcentaje máximo de recursos del clúster que se pueden usar para ejecutar patrones de aplicación. | flotante | 0,1 |
yarn-site.yarn.nodemanager.container-executor.class | Ejecutores de contenedor para un sistema operativo específico. | cuerda / cadena | org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor |
capacity-scheduler.yarn.scheduler.capacity.root.default.user-limit-factor | El múltiplo de la capacidad de cola que se puede configurar para permitir que un solo usuario adquiera más recursos. | Int | 1 |
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-capacity | Capacidad máxima de cola en porcentaje (%) como un valor float OR como capacidad máxima de cola de recursos absoluta. Al establecer este valor en -1 se establece la capacidad máxima en 100%. | Int | 100 |
capacity-scheduler.yarn.scheduler.capacity.root.default.state | El estado de la cola puede ser uno de en ejecución o detenido. | cuerda / cadena | CORRIENTE |
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-application-lifetime | Duración máxima de una aplicación que se envía a una cola en segundos. Cualquier valor menor o igual que cero se considerará deshabilitado. | Int | -1 |
capacity-scheduler.yarn.scheduler.capacity.root.default.default-application-lifetime | Duración predeterminada de una aplicación que se envía a una cola en segundos. Cualquier valor menor o igual que cero se considerará deshabilitado. | Int | -1 |
capacity-scheduler.yarn.scheduler.capacity.node-locality-delay | Número de oportunidades de programación perdidas después de las cuales capacityScheduler intenta programar contenedores locales en bastidor. | Int | 40 |
capacity-scheduler.yarn.scheduler.capacity.rack-locality-additional-delay | Número de oportunidades adicionales de programación perdidas sobre las de retraso de la localidad del nodo, después de las cuales capacityScheduler intenta programar contenedores fuera del conmutador. | Int | -1 |
hadoop-env. HADOOP_HEAPSIZE_MAX | Tamaño máximo predeterminado del montón de todos los procesos JVM de Hadoop. | Int | 2048 |
yarn-env. YARN_RESOURCEMANAGER_HEAPSIZE | Tamaño del montón de Yarn ResourceManager. | Int | 2048 |
yarn-env. YARN_NODEMANAGER_HEAPSIZE | Tamaño del montón de NodeManager de Yarn. | Int | 2048 |
mapred-env. HADOOP_JOB_HISTORYSERVER_HEAPSIZE | Tamaño del montón del historial de trabajos de HadoopServer. | Int | 2048 |
hive-env. HADOOP_HEAPSIZE | Tamaño del montón de Hadoop para Hive. | Int | 2048 |
livy-conf.livy.server.session.timeout-check | Compruebe si se ha agotado el tiempo de espera de la sesión del servidor Livy. | booleano | cierto |
livy-conf.livy.server.session.timeout-check.skip-busy | Omitir el tiempo de espera de la sesión del servidor Livy. | booleano | cierto |
livy-conf.livy.server.session.timeout | Tiempo de espera de la sesión del servidor livy en (ms/s/m | min/h/d/y). | cuerda / cadena | 2h |
livy-conf.livy.server.yarn.poll-interval | Intervalo de sondeo para yarn en el servidor livy en (ms/s/m | min/h/d/y). | cuerda / cadena | 500 ms |
livy-conf.livy.rsc.jars | Jars livy RSC. | cuerda / cadena | local:/opt/livy/rsc-jars/livy-api.jar,local:/opt/livy/rsc-jars/livy-rsc.jar,local:/opt/livy/rsc-jars/netty-all.jar |
livy-conf.livy.repl.jars | Jar de livy repl. | cuerda / cadena | local:/opt/livy/repl_2.11-jars/livy-core.jar,local:/opt/livy/repl_2.11-jars/livy-repl.jar,local:/opt/livy/repl_2.11-jars/commons-codec.jar |
livy-conf.livy.rsc.sparkr.package | Paquete Livy RSC SparkR. | cuerda / cadena | hdfs:///system/livy/sparkr.zip |
livy-env. LIVY_SERVER_JAVA_OPTS | Opciones de Java de Livy Server. | cuerda / cadena | -Xmx2g |
spark-defaults-conf.spark.r.backendConnectionTimeout | Tiempo de espera de conexión establecido por el proceso de R en su conexión a RBackend en segundos. | Int | 86400 |
spark-defaults-conf.spark.pyspark.python | Opción de Python para Spark. | cuerda / cadena | /opt/bin/python3 |
spark-defaults-conf.spark.yarn.jars | Jars de Yarn. | cuerda / cadena | local:/opt/spark/jars/* |
spark-history-server-conf.spark.history.fs.cleaner.maxAge | Antigüedad máxima de los archivos del historial de trabajos antes de que se eliminen mediante el limpiador del historial del sistema de archivos en (ms/s/m | min/h/d/y). | cuerda / cadena | 7d |
spark-history-server-conf.spark.history.fs.cleaner.interval | Intervalo de limpieza del historial de Spark en (ms/s/m | min/h/d/y). | cuerda / cadena | 12h |
hadoop-env. HADOOP_CLASSPATH | Establece la ruta de clase de Hadoop adicional. | cuerda / cadena | |
spark-env. SPARK_DAEMON_MEMORY | Memoria del demonio de Spark. | cuerda / cadena | 2g |
yarn-site.yarn.log-aggregation.retain-seconds | Cuando la agregación de registros está habilitada, esta propiedad determina el número de segundos para conservar los registros. | Int | 604800 |
yarn-site.yarn.nodemanager.log-aggregation.compression-type | Tipo de compresión para la agregación de registros para NodeManager de Yarn. | cuerda / cadena | gz |
yarn-site.yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds | Intervalo de segundos para la supervisión de la supervisión en la agregación de registros de NodeManager. | Int | tres mil seiscientos |
yarn-site.yarn.scheduler.minimum-allocation-mb | Asignación mínima para cada solicitud de contenedor en Resource Manager, en MB. | Int | 512 |
yarn-site.yarn.scheduler.minimum-allocation-vcores | Asignación mínima para cada solicitud de contenedor en Resource Manager en términos de núcleos de CPU virtuales. | Int | 1 |
yarn-site.yarn.nm.liveness-monitor.expiry-interval-ms | Cuánto tiempo se espera hasta que un administrador de nodos se considera inactivo. | Int | 180000 |
yarn-site.yarn.resourcemanager.zk-timeout-ms | Tiempo de espera de sesión de "ZooKeeper" en milisegundos. | Int | 40000 |
capacidad-scheduler.yarn.scheduler.capacity.root.default.acl_application_max_priority | La ACL de quién puede enviar aplicaciones con prioridad configurada. Por ejemplo, [user={name} group={name} max_priority={priority} default_priority={priority}]. | cuerda / cadena | * |
includeSpark | Boolean para configurar si los trabajos de Spark se pueden ejecutar en el grupo de almacenamiento. | booleano | cierto |
enableSparkOnK8s | Boolean para configurar si se habilita Spark en K8s, lo que agrega contenedores para K8s en el encabezado de Spark. | booleano | falso |
sparkVersion | La versión de Spark | cuerda / cadena | 2,4 |
spark-env. PYSPARK_ARCHIVES_PATH | Ruta de acceso a los archivos jar de archivo pyspark usados en trabajos de Spark. | cuerda / cadena | local:/opt/spark/python/lib/pyspark.zip,local:/opt/spark/python/lib/py4j-0.10.7-src.zip |
En las secciones siguientes se enumeran las configuraciones no admitidas.
Configuración predeterminada de HDFS específica de clústeres de macrodatos
La configuración de HDFS siguiente es la que tiene valores predeterminados específicos de BDC, pero que son configurables por el usuario. No se incluye la configuración administrada por el sistema.
Nombre de la configuración | Descripción | Tipo | Valor predeterminado |
---|---|---|---|
hdfs-site.dfs.replication | Replicación de bloques predeterminada. | Int | 2 |
hdfs-site.dfs.namenode.provided.enabled | Permite que el nodo de nombre controle los almacenamientos proporcionados. | booleano | cierto |
hdfs.site.dfs.namenode.mount.acls.enabled | Establézcalo en true para heredar las ACL (listas de control de acceso) de los almacenes remotos durante el montaje. | booleano | falso |
hdfs-site.dfs.datanode.provided.enabled | Permite que el nodo de datos controle los almacenamientos proporcionados. | booleano | cierto |
hdfs-site.dfs.datanode.provided.volume.lazy.load | Habilite la carga diferida en el nodo de datos para los almacenamientos proporcionados. | booleano | cierto |
hdfs-site.dfs.provided.aliasmap.inmemory.enabled | Habilite la asignación de alias en memoria para los almacenamientos proporcionados. | booleano | cierto |
hdfs-site.dfs.provided.aliasmap.class | Clase que se usa para especificar el formato de entrada de los bloques en los almacenamientos proporcionados. | cuerda / cadena | org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.InMemoryLevelDBAliasMapClient |
hdfs-site.dfs.namenode.provided.aliasmap.class | Clase que se usa para especificar el formato de entrada de los bloques en los almacenamientos proporcionados para namenode. | cuerda / cadena | org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.NamenodeInMemoryAliasMapClient |
hdfs-site.dfs.provided.aliasmap.load.retries | Número de reintentos en el nodo de datos para cargar el mapa de alias proporcionado. | Int | 0 |
hdfs-site.dfs.provided.aliasmap.inmemory.batch-size | Tamaño del lote al recorrer en iteración la base de datos que respalda el mapa de alias. | Int | 500 |
hdfs-site.dfs.datanode.provided.volume.readthrough | Habilite readthrough para los almacenamientos proporcionados en datanode. | booleano | cierto |
hdfs-site.dfs.provided.cache.capacity.mount | Habilite el montaje de capacidad de caché para los almacenamientos proporcionados. | booleano | cierto |
hdfs-site.dfs.provided.overreplication.factor | Factor de sobreplicación para los almacenamientos proporcionados. Número de bloques de caché en BDC creados por bloque HDFS remoto. | flotante | 1 |
hdfs-site.dfs.provided.cache.capacity.fraction | Fracción de capacidad de caché para el almacenamiento proporcionado. Fracción de la capacidad total del clúster que se puede usar para almacenar en caché los datos de los almacenes proporcionados. | flotante | 0,01 |
hdfs-site.dfs.provided.cache.capacity.bytes | Capacidad de clúster que se va a usar como espacio de caché para bloques proporcionados, en bytes. | Int | -1 |
hdfs-site.dfs.ls.limit | Limite el número de archivos impresos por ls. | Int | 500 |
hdfs-env. HDFS_NAMENODE_OPTS | Opciones de Namenode de HDFS. | cuerda / cadena | -Dhadoop.security.logger=INFO,RFAS -Xmx2g |
hdfs-env. HDFS_DATANODE_OPTS | Opciones de datanode de HDFS. | cuerda / cadena | -Dhadoop.security.logger=ERROR,RFAS -Xmx2g |
hdfs-env. HDFS_ZKFC_OPTS | Opciones de ZKFC de HDFS. | cuerda / cadena | -Xmx1g |
hdfs-env. HDFS_JOURNALNODE_OPTS | Opciones de JournalNode de HDFS. | cuerda / cadena | -Xmx2g |
hdfs-env. HDFS_AUDIT_LOGGER | Opciones del registrador de auditoría de HDFS. | cuerda / cadena | INFO,RFAAUDIT |
core-site.hadoop.security.group.mapping.ldap.search.group.hierarchy.levels | Niveles de jerarquía para el grupo principal de búsqueda LDAP de Hadoop del sitio. | Int | 10 |
core-site.fs.permissions.umask-mode | Modo umask de permiso. | cuerda / cadena | 077 |
core-site.hadoop.security.kms.client.failover.max.retries | Número máximo de reintentos para la conmutación por error de cliente. | Int | 20 |
zoo-cfg.tickTime | Hora de graduación para la configuración de "ZooKeeper". | Int | 2000 |
zoo-cfg.initLimit | Hora de inicialización para la configuración de "ZooKeeper". | Int | 10 |
zoo-cfg.syncLimit | Hora de sincronización para la configuración de "ZooKeeper". | Int | 5 |
zoo-cfg.maxClientCnxns | Número máximo de conexiones de cliente para la configuración de "ZooKeeper". | Int | 60 |
zoo-cfg.minSessionTimeout | Tiempo de espera de sesión mínimo para la configuración de "ZooKeeper". | Int | 4000 |
zoo-cfg.maxSessionTimeout | Tiempo máximo de espera de sesión para la configuración de "ZooKeeper". | Int | 40000 |
zoo-cfg.autopurge.snapRetainCount | Snap Retain count for Autopurge 'ZooKeeper' config(Recuento de retención de snap para la configuración de "ZooKeeper" de Autopurge). | Int | 3 |
zoo-cfg.autopurge.purgeInterval | Intervalo de purga para la configuración de "ZooKeeper" de depuración automática. | Int | 0 |
zookeeper-java-env. JVMFLAGS | Marcas de JVM para el entorno de Java en "ZooKeeper". | cuerda / cadena | -Xmx1G -Xms1G |
zookeeper-log4j-properties.zookeeper.console.threshold | Umbral para la consola log4j en "ZooKeeper". | cuerda / cadena | INFORMACIÓN |
zoo-cfg.zookeeper.request.timeout | Controla el tiempo de espera de la solicitud "ZooKeeper" en milisegundos. | Int | 40000 |
kms-site.hadoop.security.kms.encrypted.key.cache.size | Tamaño de caché de la clave cifrada en kms de Hadoop. | Int | 500 |
Configuración de puerta de enlace predeterminada específica de clústeres de macrodatos
La configuración de puerta de enlace siguiente es la que tiene valores predeterminados específicos de BDC, pero que son configurables por el usuario. No se incluye la configuración administrada por el sistema. La configuración de la puerta de enlace solo se puede configurar en el ámbito del recurso .
Nombre de la configuración | Descripción | Tipo | Valor predeterminado |
---|---|---|---|
gateway-site.gateway.httpclient.socketTimeout | Tiempo de espera de socket para el cliente HTTP en la puerta de enlace en (ms/s/m). | cuerda / cadena | los 90 |
gateway-site.sun.security.krb5.debug | Depuración para la seguridad de Kerberos. | booleano | cierto |
knox-env. KNOX_GATEWAY_MEM_OPTS | Opciones de memoria de la puerta de enlace de Knox. | cuerda / cadena | -Xmx2g |
Configuraciones de Spark no admitidas
Las siguientes spark
configuraciones no son compatibles y no se pueden cambiar en el contexto del clúster de macrodatos.
Categoría | Subcategoría | Archivo | Configuraciones no admitidas |
---|---|---|---|
yarn-site | yarn-site.xml | yarn.log-aggregation-enable | |
yarn.log.server.url | |||
yarn.nodemanager.pmem-check-enabled | |||
yarn.nodemanager.vmem-check-enabled | |||
yarn.nodemanager.aux-services | |||
yarn.resourcemanager.address | |||
yarn.nodemanager.address | |||
yarn.client.failover:no-ha-proxy-provider | |||
yarn.client.failover-proxy-provider | |||
yarn.http.policy | |||
yarn.nodemanager.linux-container-executor.secure-mode.use-pool-user | |||
yarn.nodemanager.linux-container-executor.secure-mode.pool-user-prefix | |||
yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user | |||
yarn.acl.enable | |||
yarn.admin.acl | |||
yarn.resourcemanager.hostname | |||
yarn.resourcemanager.principal | |||
yarn.resourcemanager.keytab | |||
yarn.resourcemanager.webapp.spnego-keytab-file | |||
yarn.resourcemanager.webapp.spnego-principal | |||
yarn.nodemanager.principal | |||
yarn.nodemanager.keytab | |||
yarn.nodemanager.webapp.spnego-keytab-file | |||
yarn.nodemanager.webapp.spnego-principal | |||
yarn.resourcemanager.ha.enabled | |||
yarn.resourcemanager.cluster-id | |||
yarn.resourcemanager.zk-address | |||
yarn.resourcemanager.ha.rm-ids | |||
yarn.resourcemanager.hostname.* | |||
programador de capacidad | capacity-scheduler.xml | yarn.scheduler.capacity.root.acl_submit_applications | |
yarn.scheduler.capacity.root.acl_administer_queue | |||
yarn.scheduler.capacity.root.default.acl_application_max_priority | |||
yarn-env | yarn-env.sh | ||
spark-defaults-conf | spark-defaults.conf | spark.yarn.archive | |
spark.yarn.historyServer.address | |||
spark.eventLog.enabled | |||
spark.eventLog.dir | |||
spark.sql.warehouse.dir | |||
spark.sql.hive.metastore.version | |||
spark.sql.hive.metastore.jars | |||
spark.extraListeners | |||
spark.metrics.conf | |||
spark.ssl.enabled | |||
spark.authenticate | |||
spark.network.crypto.enabled | |||
spark.ssl.keyStore | |||
spark.ssl.keyStorePassword | |||
spark.ui.enabled | |||
spark-env | spark-env.sh | SPARK_NO_DAEMONIZE | |
SPARK_DIST_CLASSPATH | |||
spark-history-server-conf | spark-history-server.conf | spark.history.fs.logDirectory | |
spark.ui.proxyBase | |||
spark.history.fs.cleaner.enabled | |||
spark.ssl.enabled | |||
spark.authenticate | |||
spark.network.crypto.enabled | |||
spark.ssl.keyStore | |||
spark.ssl.keyStorePassword | |||
spark.history.kerberos.enabled | |||
spark.history.kerberos.principal | |||
spark.history.kerberos.keytab | |||
spark.ui.filters | |||
spark.acls.enable | |||
spark.history.ui.acls.enable | |||
spark.history.ui.admin.acls | |||
spark.history.ui.admin.acls.groups | |||
livy-conf | livy.conf | livy.keystore | |
livy.keystore.password | |||
livy.spark.master | |||
livy.spark.deploy-mode | |||
livy.rsc.jars | |||
livy.repl.jars | |||
livy.rsc.pyspark.archives | |||
livy.rsc.sparkr.package | |||
livy.repl.enable-hive-context | |||
livy.superusers | |||
livy.server.auth.type | |||
livy.server.launch.kerberos.keytab | |||
livy.server.launch.kerberos.principal | |||
livy.server.auth.kerberos.principal | |||
livy.server.auth.kerberos.keytab | |||
livy.impersonation.enabled | |||
livy.server.access-control.enabled | |||
livy.server.access-control.* | |||
livy-env | livy-env.sh | ||
hive-site | hive-site.xml | javax.jdo.option.ConnectionURL | |
javax.jdo.option.ConnectionDriverName | |||
javax.jdo.option.ConnectionUserName | |||
javax.jdo.option.ConnectionPassword | |||
hive.metastore.uris | |||
hive.metastore.pre.event.listeners | |||
hive.security.authorization.enabled | |||
hive.security.metastore.authenticator.manager | |||
hive.security.metastore.authorization.manager | |||
hive.metastore.use.SSL | |||
hive.metastore.keystore.path | |||
hive.metastore.keystore.password | |||
hive.metastore.truststore.path | |||
hive.metastore.truststore.password | |||
hive.metastore.kerberos.keytab.file | |||
hive.metastore.kerberos.principal | |||
hive.metastore.sasl.enabled | |||
hive.metastore.execute.setugi | |||
hive.cluster.delegation.token.store.class | |||
hive-env | hive-env.sh |
Configuraciones de HDFS no admitidas
Las siguientes hdfs
configuraciones no son compatibles y no se pueden cambiar en el contexto del clúster de macrodatos.
Categoría | Subcategoría | Archivo | Configuraciones no admitidas |
---|---|---|---|
core-site | core-site.xml | fs.defaultFS | |
ha.zookeeper.quorum | |||
hadoop.tmp.dir | |||
hadoop.rpc.protection | |||
hadoop.security.auth_to_local | |||
hadoop.security.authentication | |||
hadoop.security.authorization | |||
hadoop.http.authentication.simple.anonymous.allowed | |||
hadoop.http.authentication.type | |||
hadoop.http.authentication.kerberos.principal | |||
hadoop.http.authentication.kerberos.keytab | |||
hadoop.http.filter.initializers | |||
hadoop.security.group.mapping.* | |||
hadoop.security.key.provider.path | |||
mapred-env | mapred-env.sh | ||
hdfs-site | hdfs-site.xml | dfs.namenode.name.dir | |
dfs.datanode.data.dir | |||
dfs.namenode.acls.enabled | |||
dfs.namenode.datanode.registration.ip-hostname-check | |||
dfs.client.retry.policy.enabled | |||
dfs.permissions.enabled | |||
dfs.nameservices | |||
dfs.ha.namenodes.nmnode-0 | |||
dfs.namenode.rpc-address.nmnode-0.* | |||
dfs.namenode.shared.edits.dir | |||
dfs.ha.automatic-failover.enabled | |||
dfs.ha.fencing.methods | |||
dfs.journalnode.edits.dir | |||
dfs.client.failover.proxy.provider.nmnode-0 | |||
dfs.namenode.http-address | |||
dfs.namenode.httpS-address | |||
dfs.http.policy | |||
dfs.encrypt.data.transfer | |||
dfs.block.access.token.enable | |||
dfs.data.transfer.protection | |||
dfs.encrypt.data.transfer.cipher.suites | |||
dfs.https.port | |||
dfs.namenode.keytab.file | |||
dfs.namenode.kerberos.principal | |||
dfs.namenode.kerberos.internal.spnego.principal | |||
dfs.datanode.data.dir.perm | |||
dfs.datanode.address | |||
dfs.datanode.http.address | |||
dfs.datanode.ipc.address | |||
dfs.datanode.https.address | |||
dfs.datanode.keytab.file | |||
dfs.datanode.kerberos.principal | |||
dfs.journalnode.keytab.file | |||
dfs.journalnode.kerberos.principal | |||
dfs.journalnode.kerberos.internal.spnego.principal | |||
dfs.web.authentication.kerberos.keytab | |||
dfs.web.authentication.kerberos.principal | |||
dfs.webhdfs.enabled | |||
dfs.permissions.superusergroup | |||
hdfs-env | hdfs-env.sh | HADOOP_HEAPSIZE_MAX | |
zoo-cfg | zoo.cfg | secureClientPort | |
clientPort | |||
dataDir | |||
dataLogDir | |||
4lw.commands.whitelist | |||
zookeeper-java-env | java.env | ZK_LOG_DIR | |
SERVER_JVMFLAGS | |||
zookeeper-log4j-properties | log4j.properties (zookeeper) | log4j.rootLogger | |
log4j.appender.CONSOLE.* |
Nota:
Este artículo contiene el término lista blanca, un término que Microsoft considera que no distingue en este contexto. El término aparece en este artículo porque actualmente aparece en el software. Cuando se quite el término del software, se quitará también del artículo.
Configuraciones no admitidas gateway
Las siguientes gateway
configuraciones para no se admiten y no se pueden cambiar en el contexto del clúster de macrodatos.
Categoría | Subcategoría | Archivo | Configuraciones no admitidas |
---|---|---|---|
gateway-site | gateway-site.xml | gateway.port | |
gateway.path | |||
gateway.gateway.conf.dir | |||
gateway.hadoop.kerberos.secured | |||
java.security.krb5.conf | |||
java.security.auth.login.config | |||
gateway.websocket.feature.enabled | |||
gateway.scope.cookies.feature.enabled | |||
ssl.exclude.protocols | |||
ssl.include.ciphers |