Propriedades de configuração do Apache Spark e do Apache Hadoop (HDFS)
Aplica-se a: SQL Server 2019 (15.x)
Importante
O complemento Clusters de Big Data do Microsoft SQL Server 2019 será desativado. O suporte para Clusters de Big Data do SQL Server 2019 será encerrado em 28 de fevereiro de 2025. Todos os usuários existentes do SQL Server 2019 com Software Assurance terão suporte total na plataforma e o software continuará a ser mantido por meio de atualizações cumulativas do SQL Server até esse momento. Para obter mais informações, confira a postagem no blog de anúncio e as opções de Big Data na plataforma do Microsoft SQL Server.
Os Clusters de Big Data dão suporte à configuração de tempo de implantação e pós-implantação dos componentes Apache Spark e Hadoop nos escopos de serviço e recurso. Os Clusters de Big Data usam os mesmos valores de configuração padrão que o respectivo projeto de software livre para a maioria das configurações. As configurações que alteramos estão listadas abaixo, com uma descrição e seu valor padrão. Além do recurso de gateway, não há nenhuma diferença entre as configurações que são definidas no escopo do serviço e no escopo do recurso.
Encontre todas as configurações possíveis e os padrões para cada um no site de documentação associada do Apache:
- Apache Spark: https://spark.apache.org/docs/latest/configuration.html
- Apache Hadoop:
- Hive: https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties#ConfigurationProperties-MetaStore
- Livy: https://github.com/cloudera/livy/blob/master/conf/livy.conf.template
- Gateway Apache Knox: https://knox.apache.org/books/knox-0-14-0/user-guide.html#Gateway+Details
As configurações às quais não damos suporte também estão listadas abaixo.
Observação
Para incluir o Spark no pool de armazenamento, defina o valor booliano includeSpark
no arquivo de configuração bdc.json
em spec.resources.storage-0.spec.settings.spark
. Confira Configurar o Apache Spark e o Apache Hadoop nos Clusters de Big Data para obter instruções.
Configurações do Spark padrão específicas dos Clusters de Big Data
As configurações do Spark abaixo são aquelas que têm padrões específicos do BDC, mas que são configuráveis pelo usuário. As configurações gerenciadas pelo sistema não estão incluídas.
Nome da Configuração | Descrição | Type | Valor padrão |
---|---|---|---|
capacity-scheduler.yarn.scheduler.capacity.maximum-applications | Número máximo de aplicativos no sistema que podem estar ativos simultaneamente em execução e pendentes. | INT | 10000 |
capacity-scheduler.yarn.scheduler.capacity.resource-calculator | A implementação do ResourceCalculator a ser usada para comparar Recursos no agendador. | string | org.apache.hadoop.yarn.util.resource.DominantResourceCalculator |
capacity-scheduler.yarn.scheduler.capacity.root.queues | O agendador de capacidade com a fila predefinida chamada raiz. | string | padrão |
capacity-scheduler.yarn.scheduler.capacity.root.default.capacity | Capacidade da fila em percentual (%) como a capacidade mínima da fila de recursos absoluta para a fila raiz. | INT | 100 |
spark-defaults-conf.spark.driver.cores | Número de núcleos a serem usados para o processo de driver, somente no modo de cluster. | INT | 1 |
spark-defaults-conf.spark.driver.memoryOverhead | A quantidade de memória off-heap a ser alocada por driver no modo de cluster. | INT | 384 |
spark-defaults-conf.spark.executor.instances | O número de executores para alocação estática. | INT | 1 |
spark-defaults-conf.spark.executor.cores | O número de núcleos a serem usados em cada executor. | INT | 1 |
spark-defaults-conf.spark.driver.memory | Quantidade de memória a ser usada para o processo do driver. | string | 1g |
spark-defaults-conf.spark.executor.memory | Quantidade de memória a ser usada pelo processo do executor. | string | 1g |
spark-defaults-conf.spark.executor.memoryOverhead | A quantidade de memória off-heap a ser alocada por executor. | INT | 384 |
yarn-site.yarn.nodemanager.resource.memory-mb | Quantidade de memória física, em MB, que pode ser alocada para contêineres. | INT | 8192 |
yarn-site.yarn.scheduler.maximum-allocation-mb | A alocação máxima de cada solicitação de contêiner no gerenciador de recursos. | INT | 8192 |
yarn-site.yarn.nodemanager.resource.cpu-vcores | Número de núcleos de CPU que podem ser alocados para contêineres. | INT | 32 |
yarn-site.yarn.scheduler.maximum-allocation-vcores | A alocação máxima de cada solicitação de contêiner no gerenciador de recursos, em termos de núcleos de CPU virtual. | INT | 8 |
yarn-site.yarn.nodemanager.linux-container-executor.secure-mode.pool-user-count | O número de usuários do pool para o executor do contêiner do Linux no modo de segurança. | INT | 6 |
yarn-site.yarn.scheduler.capacity.maximum-am-resource-percent | Porcentagem máxima de recursos no cluster que podem ser usados para executar os mestres do aplicativo. | FLOAT | 0,1 |
yarn-site.yarn.nodemanager.container-executor.class | Executores de contêiner para um sistema operacional específico. | string | org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor |
capacity-scheduler.yarn.scheduler.capacity.root.default.user-limit-factor | O múltiplo da capacidade da fila que pode ser configurado para permitir que um único usuário adquira mais recursos. | INT | 1 |
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-capacity | Capacidade máxima da fila em percentual (%) como um float OU como uma capacidade máxima de fila de recursos absoluta. Definir esse valor como -1 define a capacidade máxima para 100%. | INT | 100 |
capacity-scheduler.yarn.scheduler.capacity.root.default.state | O estado da fila pode ser Em execução ou Parado. | string | RUNNING |
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-application-lifetime | Tempo de vida máximo de um aplicativo que é enviado para uma fila em segundos. Qualquer valor menor ou igual a zero será considerado como desabilitado. | INT | -1 |
capacity-scheduler.yarn.scheduler.capacity.root.default.default-application-lifetime | Tempo de vida padrão de um aplicativo que é enviado para uma fila em segundos. Qualquer valor menor ou igual a zero será considerado como desabilitado. | INT | -1 |
capacity-scheduler.yarn.scheduler.capacity.node-locality-delay | Número de oportunidades de agendamento perdidas após o qual o CapacityScheduler tenta agendar contêineres locais de rack. | INT | 40 |
capacity-scheduler.yarn.scheduler.capacity.rack-locality-additional-delay | Número de oportunidades de agendamento perdidas adicionais além daquelas de nó-localidade-atraso, após o qual o CapacityScheduler tenta agendar contêineres fora do comutador. | INT | -1 |
hadoop-env.HADOOP_HEAPSIZE_MAX | Tamanho máximo de heap padrão de todos os processos de JVM do Hadoop. | INT | 2.048 |
yarn-env.YARN_RESOURCEMANAGER_HEAPSIZE | Tamanho do heap do Yarn ResourceManager. | INT | 2.048 |
yarn-env.YARN_NODEMANAGER_HEAPSIZE | Tamanho do heap do Yarn NodeManager. | INT | 2.048 |
mapred-env.HADOOP_JOB_HISTORYSERVER_HEAPSIZE | Tamanho do heap de HistoryServer de Trabalho do Hadoop. | INT | 2.048 |
hive-env.HADOOP_HEAPSIZE | Tamanho do heap do Hadoop para o Hive. | INT | 2.048 |
livy-conf.livy.server.session.timeout-check | Verifique o tempo limite da sessão do servidor Livy. | bool | true |
livy-conf.livy.server.session.timeout-check.skip-busy | Skip-busy (Ignorar ocupado) para Verificar o tempo limite da sessão do servidor Livy. | bool | true |
livy-conf.livy.server.session.timeout | Tempo limite para a sessão do servidor Livy em (ms/s/m | min/h/d/a). | string | 2h |
livy-conf.livy.server.yarn.poll-interval | Intervalo de sondagem para yarn no servidor Livy (ms/s/m | min/h/d/a). | string | 500 ms |
livy-conf.livy.rsc.jars | Jars RSC do Livy. | string | local:/opt/livy/rsc-jars/livy-api.jar,local:/opt/livy/rsc-jars/livy-rsc.jar,local:/opt/livy/rsc-jars/netty-all.jar |
livy-conf.livy.repl.jars | Jars de resposta do Livy. | string | local:/opt/livy/repl_2.11-jars/livy-core.jar,local:/opt/livy/repl_2.11-jars/livy-repl.jar,local:/opt/livy/repl_2.11-jars/commons-codec.jar |
livy-conf.livy.rsc.sparkr.package | Pacote SparkR RSC do Livy. | string | hdfs:///system/livy/sparkr.zip |
livy-env.LIVY_SERVER_JAVA_OPTS | Opções Java do Servidor Livy. | string | -Xmx2g |
spark-defaults-conf.spark.r.backendConnectionTimeout | Tempo limite de conexão definido pelo processo do R em sua conexão com RBackend em segundos. | INT | 86.400 |
spark-defaults-conf.spark.pyspark.python | Opção Python para Spark. | string | /opt/bin/python3 |
spark-defaults-conf.spark.yarn.jars | Jars do yarn. | string | local:/opt/spark/jars/* |
spark-history-server-conf.spark.history.fs.cleaner.maxAge | Idade máxima dos arquivos de histórico de trabalho antes de serem excluídos pelo limpador de histórico do sistema de arquivos em (ms/s/m | min/h/d/a). | string | 7d |
spark-history-server-conf.spark.history.fs.cleaner.interval | Intervalo de limpeza do histórico do Spark em (ms/s/m | min/h/d/a). | string | 12h |
hadoop-env.HADOOP_CLASSPATH | Define o classpath adicional do Hadoop. | string | |
spark-env.SPARK_DAEMON_MEMORY | Memória do daemon do Spark. | string | 2g |
yarn-site.yarn.log-aggregation.retain-seconds | Quando a agregação de log está habilitada, essa propriedade determina o número de segundos para manter os logs. | INT | 604800 |
yarn-site.yarn.nodemanager.log-aggregation.compression-type | Tipo de compactação para agregação de log para Yarn NodeManager. | string | gz |
yarn-site.yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds | Intervalo em segundos para o Monitoramento de Rolagem na Agregação de Log do NodeManager. | INT | 3600 |
yarn-site.yarn.scheduler.minimum-allocation-mb | A alocação máxima de cada solicitação de contêiner no Gerenciador de Recursos, em MBs. | INT | 512 |
yarn-site.yarn.scheduler.minimum-allocation-vcores | A alocação mínima de cada solicitação de contêiner no Gerenciador de Recursos, em termos de núcleos de CPU virtual. | INT | 1 |
yarn-site.yarn.nm.liveness-monitor.expiry-interval-ms | Quanto tempo aguardar até que um Gerenciador de Nó seja considerado inativo. | INT | 180000 |
yarn-site.yarn.resourcemanager.zk-timeout-ms | Tempo limite da sessão "ZooKeeper" em milissegundos. | INT | 40000 |
capacity-scheduler.yarn.scheduler.capacity.root.default.acl_application_max_priority | A ACL de quem pode enviar aplicativos com prioridade configurada. Por exemplo, [user={name} group={name} max_priority={priority} default_priority={priority}]. | string | * |
includeSpark | Booliano para configurar se os trabalhos do Spark podem ser executados no Pool de armazenamento. | bool | true |
enableSparkOnK8s | Booliano para configurar se o Spark deve ser habilitado no K8s, que adiciona contêineres para K8s no cabeçalho do Spark. | bool | false |
sparkVersion | A versão do Spark | string | 2.4 |
spark-env.PYSPARK_ARCHIVES_PATH | Caminho para os jars do arquivo pyspark usados em trabalhos do Spark. | string | local:/opt/spark/python/lib/pyspark.zip,local:/opt/spark/python/lib/py4j-0.10.7-src.zip |
As seções a seguir listam as configurações não compatíveis.
Configurações HDFS padrão específica dos Clusters de Big Data
As configurações HDFS abaixo são aquelas que têm padrões específicos do BDC, mas que são configuráveis pelo usuário. As configurações gerenciadas pelo sistema não estão incluídas.
Nome da Configuração | Descrição | Type | Valor padrão |
---|---|---|---|
hdfs-site.dfs.replication | Replicação de bloco padrão. | INT | 2 |
hdfs-site.dfs.namenode.provided.enabled | Habilita o nó de nome para manipular os armazenamentos fornecidos. | bool | true |
hdfs.site.dfs.namenode.mount.acls.enabled | Defina como true para herdar ACLs (listas de controle de acesso) de repositórios remotos durante a montagem. | bool | false |
hdfs-site.dfs.datanode.provided.enabled | Habilita o nó de dados para manipular os armazenamentos fornecidos. | bool | true |
hdfs-site.dfs.datanode.provided.volume.lazy.load | Habilita a carga lenta no nó de dados para armazenamentos fornecidos. | bool | true |
hdfs-site.dfs.provided.aliasmap.inmemory.enabled | Habilita o mapa de alias na memória para armazenamentos fornecidos. | bool | true |
hdfs-site.dfs.provided.aliasmap.class | A classe usada para especificar o formato de entrada dos blocos nos armazenamentos fornecidos. | string | org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.InMemoryLevelDBAliasMapClient |
hdfs-site.dfs.namenode.provided.aliasmap.class | A classe usada para especificar o formato de entrada dos blocos nos armazenamentos fornecidos para namenode. | string | org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.NamenodeInMemoryAliasMapClient |
hdfs-site.dfs.provided.aliasmap.load.retries | Número de repetições no datanode para carregar o aliasmap fornecido. | INT | 0 |
hdfs-site.dfs.provided.aliasmap.inmemory.batch-size | O tamanho do lote ao fazer a iteração do banco de dados de backup no aliasmap. | INT | 500 |
hdfs-site.dfs.datanode.provided.volume.readthrough | Habilita o readthrough para armazenamentos fornecidos no datanode. | bool | true |
hdfs-site.dfs.provided.cache.capacity.mount | Habilita a montagem de capacidade de cache para armazenamentos fornecidos. | bool | true |
hdfs-site.dfs.provided.overreplication.factor | Fator de super-replicação para armazenamentos fornecidos. Número de blocos de cache no BDC criados por bloco HDFS remoto. | FLOAT | 1 |
hdfs-site.dfs.provided.cache.capacity.fraction | Fração de capacidade de cache para o armazenamento fornecido. A fração da capacidade total no cluster que pode ser usada para armazenar em cache dados de repositórios fornecidos. | FLOAT | 0,01 |
hdfs-site.dfs.provided.cache.capacity.bytes | Capacidade do cluster a ser usada como espaço em cache para blocos fornecidos, em bytes. | INT | -1 |
hdfs-site.dfs.ls.limit | Limita o número de arquivos impressos por ls. | INT | 500 |
hdfs-env.HDFS_NAMENODE_OPTS | Opções de Namenode do HDFS. | string | -Dhadoop.security.logger=INFO,RFAS -Xmx2g |
hdfs-env.HDFS_DATANODE_OPTS | Opções de Datanode do HDFS. | string | -Dhadoop.security.logger=ERROR,RFAS -Xmx2g |
hdfs-env.HDFS_ZKFC_OPTS | Opções de ZKFC do HDFS. | string | -Xmx1g |
hdfs-env.HDFS_JOURNALNODE_OPTS | Opções de JournalNode do HDFS. | string | -Xmx2g |
hdfs-env.HDFS_AUDIT_LOGGER | Opções do agente de auditoria do HDFS. | string | INFO,RFAAUDIT |
core-site.hadoop.security.group.mapping.ldap.search.group.hierarchy.levels | Níveis de hierarquia para o grupo de Pesquisa LDAP do Hadoop do site principal. | INT | 10 |
core-site.fs.permissions.umask-mode | Modo de umask de permissão. | string | 077 |
core-site.hadoop.security.kms.client.failover.max.retries | Máximo de tentativas para failover de cliente. | INT | 20 |
zoo-cfg.tickTime | Tempo de Tique para a configuração "ZooKeeper". | INT | 2000 |
zoo-cfg.initLimit | Tempo de Inicialização para a configuração "ZooKeeper". | INT | 10 |
zoo-cfg.syncLimit | Tempo de Sincronização para a configuração "ZooKeeper". | INT | 5 |
zoo-cfg.maxClientCnxns | Máximo de conexões do cliente para a configuração "ZooKeeper". | INT | 60 |
zoo-cfg.minSessionTimeout | Tempo limite mínimo da sessão para a configuração "ZooKeeper". | INT | 4000 |
zoo-cfg.maxSessionTimeout | Tempo limite máximo da sessão para a configuração "ZooKeeper". | INT | 40000 |
zoo-cfg.autopurge.snapRetainCount | Ajustar a contagem de retenção para a configuração "ZooKeeper" de limpeza automática. | INT | 3 |
zoo-cfg.autopurge.purgeInterval | Intervalo de limpeza para a configuração de "ZooKeeper" de limpeza automática. | INT | 0 |
zookeeper-java-env.JVMFLAGS | Sinalizadores de JVM para o ambiente Java no "ZooKeeper". | string | -Xmx1G -Xms1G |
zookeeper-log4j-properties.zookeeper.console.threshold | Limite para o console do log4j no "ZooKeeper". | string | INFO |
zoo-cfg.zookeeper.request.timeout | Controla o tempo limite de solicitação "ZooKeeper" em milissegundos. | INT | 40000 |
kms-site.hadoop.security.kms.encrypted.key.cache.size | Tamanho do cache para chave criptografada no kms do Hadoop. | INT | 500 |
Configurações de gateway padrão específicas dos Clusters de Big Data
As configurações de gateway abaixo são aquelas que têm padrões específicos do BDC, mas que são configuráveis pelo usuário. As configurações gerenciadas pelo sistema não estão incluídas. As configurações de gateway só podem ser configuradas no escopo do recurso.
Nome da Configuração | Descrição | Type | Valor padrão |
---|---|---|---|
gateway-site.gateway.httpclient.socketTimeout | Tempo limite de soquete para cliente HTTP no gateway em (ms/s/m). | string | 90s |
gateway-site.sun.security.krb5.debug | Depuração da segurança do Kerberos. | bool | true |
knox-env.KNOX_GATEWAY_MEM_OPTS | Opções de memória do Gateway Knox. | string | -Xmx2g |
Configurações do Spark sem suporte
As configurações spark
a seguir não são compatíveis e não podem ser alteradas no contexto do cluster de Big Data.
Categoria | Subcategoria | Arquivo | Configurações não compatíveis |
---|---|---|---|
yarn-site | yarn-site.xml | yarn.log-aggregation-enable | |
yarn.log.server.url | |||
yarn.nodemanager.pmem-check-enabled | |||
yarn.nodemanager.vmem-check-enabled | |||
yarn.nodemanager.aux-services | |||
yarn.resourcemanager.address | |||
yarn.nodemanager.address | |||
yarn.client.failover-no-ha-proxy-provider | |||
yarn.client.failover-proxy-provider | |||
yarn.http.policy | |||
yarn.nodemanager.linux-container-executor.secure-mode.use-pool-user | |||
yarn.nodemanager.linux-container-executor.secure-mode.pool-user-prefix | |||
yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user | |||
yarn.acl.enable | |||
yarn.admin.acl | |||
yarn.resourcemanager.hostname | |||
yarn.resourcemanager.principal | |||
yarn.resourcemanager.keytab | |||
yarn.resourcemanager.webapp.spnego-keytab-file | |||
yarn.resourcemanager.webapp.spnego-principal | |||
yarn.nodemanager.principal | |||
yarn.nodemanager.keytab | |||
yarn.nodemanager.webapp.spnego-keytab-file | |||
yarn.nodemanager.webapp.spnego-principal | |||
yarn.resourcemanager.ha.enabled | |||
yarn.resourcemanager.cluster-id | |||
yarn.resourcemanager.zk-address | |||
yarn.resourcemanager.ha.rm-ids | |||
yarn.resourcemanager.hostname.* | |||
capacity-scheduler | capacity-scheduler.xml | yarn.scheduler.capacity.root.acl_submit_applications | |
yarn.scheduler.capacity.root.acl_administer_queue | |||
yarn.scheduler.capacity.root.default.acl_application_max_priority | |||
yarn-env | yarn-env.sh | ||
spark-defaults-conf | spark-defaults.conf | spark.yarn.archive | |
spark.yarn.historyServer.address | |||
spark.eventLog.enabled | |||
spark.eventLog.dir | |||
spark.sql.warehouse.dir | |||
spark.sql.hive.metastore.version | |||
spark.sql.hive.metastore.jars | |||
spark.extraListeners | |||
spark.metrics.conf | |||
spark.ssl.enabled | |||
spark.authenticate | |||
spark.network.crypto.enabled | |||
spark.ssl.keyStore | |||
spark.ssl.keyStorePassword | |||
spark.ui.enabled | |||
spark-env | spark-env.sh | SPARK_NO_DAEMONIZE | |
SPARK_DIST_CLASSPATH | |||
spark-history-server-conf | spark-history-server.conf | spark.history.fs.logDirectory | |
spark.ui.proxyBase | |||
spark.history.fs.cleaner.enabled | |||
spark.ssl.enabled | |||
spark.authenticate | |||
spark.network.crypto.enabled | |||
spark.ssl.keyStore | |||
spark.ssl.keyStorePassword | |||
spark.history.kerberos.enabled | |||
spark.history.kerberos.principal | |||
spark.history.kerberos.keytab | |||
spark.ui.filters | |||
spark.acls.enable | |||
spark.history.ui.acls.enable | |||
spark.history.ui.admin.acls | |||
spark.history.ui.admin.acls.groups | |||
livy-conf | livy.conf | livy.keystore | |
livy.keystore.password | |||
livy.spark.master | |||
livy.spark.deploy-mode | |||
livy.rsc.jars | |||
livy.repl.jars | |||
livy.rsc.pyspark.archives | |||
livy.rsc.sparkr.package | |||
livy.repl.enable-hive-context | |||
livy.superusers | |||
livy.server.auth.type | |||
livy.server.launch.kerberos.keytab | |||
livy.server.launch.kerberos.principal | |||
livy.server.auth.kerberos.principal | |||
livy.server.auth.kerberos.keytab | |||
livy.impersonation.enabled | |||
livy.server.access-control.enabled | |||
livy.server.access-control.* | |||
livy-env | livy-env.sh | ||
hive-site | hive-site.xml | javax.jdo.option.ConnectionURL | |
javax.jdo.option.ConnectionDriverName | |||
javax.jdo.option.ConnectionUserName | |||
javax.jdo.option.ConnectionPassword | |||
hive.metastore.uris | |||
hive.metastore.pre.event.listeners | |||
hive.security.authorization.enabled | |||
hive.security.metastore.authenticator.manager | |||
hive.security.metastore.authorization.manager | |||
hive.metastore.use.SSL | |||
hive.metastore.keystore.path | |||
hive.metastore.keystore.password | |||
hive.metastore.truststore.path | |||
hive.metastore.truststore.password | |||
hive.metastore.kerberos.keytab.file | |||
hive.metastore.kerberos.principal | |||
hive.metastore.sasl.enabled | |||
hive.metastore.execute.setugi | |||
hive.cluster.delegation.token.store.class | |||
hive-env | hive-env.sh |
Configurações do HDFS sem suporte
As configurações hdfs
a seguir não são compatíveis e não podem ser alteradas no contexto do cluster de Big Data.
Categoria | Subcategoria | Arquivo | Configurações não compatíveis |
---|---|---|---|
core-site | core-site.xml | fs.defaultFS | |
ha.zookeeper.quorum | |||
hadoop.tmp.dir | |||
hadoop.rpc.protection | |||
hadoop.security.auth_to_local | |||
hadoop.security.authentication | |||
hadoop.security.authorization | |||
hadoop.http.authentication.simple.anonymous.allowed | |||
hadoop.http.authentication.type | |||
hadoop.http.authentication.kerberos.principal | |||
hadoop.http.authentication.kerberos.keytab | |||
hadoop.http.filter.initializers | |||
hadoop.security.group.mapping.* | |||
hadoop.security.key.provider.path | |||
mapred-env | mapred-env.sh | ||
hdfs-site | hdfs-site.xml | dfs.namenode.name.dir | |
dfs.datanode.data.dir | |||
dfs.namenode.acls.enabled | |||
dfs.namenode.datanode.registration.ip-hostname-check | |||
dfs.client.retry.policy.enabled | |||
dfs.permissions.enabled | |||
dfs.nameservices | |||
dfs.ha.namenodes.nmnode-0 | |||
dfs.namenode.rpc-address.nmnode-0.* | |||
dfs.namenode.shared.edits.dir | |||
dfs.ha.automatic-failover.enabled | |||
dfs.ha.fencing.methods | |||
dfs.journalnode.edits.dir | |||
dfs.client.failover.proxy.provider.nmnode-0 | |||
dfs.namenode.http-address | |||
dfs.namenode.httpS-address | |||
dfs.http.policy | |||
dfs.encrypt.data.transfer | |||
dfs.block.access.token.enable | |||
dfs.data.transfer.protection | |||
dfs.encrypt.data.transfer.cipher.suites | |||
dfs.https.port | |||
dfs.namenode.keytab.file | |||
dfs.namenode.kerberos.principal | |||
dfs.namenode.kerberos.internal.spnego.principal | |||
dfs.datanode.data.dir.perm | |||
dfs.datanode.address | |||
dfs.datanode.http.address | |||
dfs.datanode.ipc.address | |||
dfs.datanode.https.address | |||
dfs.datanode.keytab.file | |||
dfs.datanode.kerberos.principal | |||
dfs.journalnode.keytab.file | |||
dfs.journalnode.kerberos.principal | |||
dfs.journalnode.kerberos.internal.spnego.principal | |||
dfs.web.authentication.kerberos.keytab | |||
dfs.web.authentication.kerberos.principal | |||
dfs.webhdfs.enabled | |||
dfs.permissions.superusergroup | |||
hdfs-env | hdfs-env.sh | HADOOP_HEAPSIZE_MAX | |
zoo-cfg | zoo.cfg | secureClientPort | |
clientPort | |||
dataDir | |||
dataLogDir | |||
4lw.commands.whitelist | |||
zookeeper-java-env | java.env | ZK_LOG_DIR | |
SERVER_JVMFLAGS | |||
zookeeper-log4j-properties | log4j.properties (zookeeper) | log4j.rootLogger | |
log4j.appender.CONSOLE.* |
Observação
Este artigo contém o termo lista de permissões, que a Microsoft considera fundamental neste contexto. O termo aparece neste artigo porque ele atualmente aparece no software. Quando o termo for removido do software, também o removeremos do artigo.
Configurações gateway
não compatíveis
As configurações gateway
a seguir não são compatíveis e não podem ser alteradas no contexto do cluster de Big Data.
Categoria | Subcategoria | Arquivo | Configurações não compatíveis |
---|---|---|---|
gateway-site | gateway-site.xml | gateway.port | |
gateway.path | |||
gateway.gateway.conf.dir | |||
gateway.hadoop.kerberos.secured | |||
java.security.krb5.conf | |||
java.security.auth.login.config | |||
gateway.websocket.feature.enabled | |||
gateway.scope.cookies.feature.enabled | |||
ssl.exclude.protocols | |||
ssl.include.ciphers |