Properti konfigurasi Apache Spark & Apache Hadoop (HDFS)

Berlaku untuk: SQL Server 2019 (15.x)

Penting

Add-on Kluster Big Data Microsoft SQL Server 2019 akan dihentikan. Dukungan untuk SQL Server 2019 Kluster Big Data akan berakhir pada 28 Februari 2025. Semua pengguna SQL Server 2019 yang ada dengan Jaminan Perangkat Lunak akan didukung sepenuhnya pada platform dan perangkat lunak akan terus dipertahankan melalui pembaruan kumulatif SQL Server hingga saat itu. Untuk informasi selengkapnya, lihat posting blog pengumuman dan Opsi big data di platform Microsoft SQL Server.

Kluster Big Data mendukung konfigurasi waktu penyebaran dan waktu pasca-penyebaran komponen Apache Spark dan Hadoop di cakupan layanan dan sumber daya. Kluster Big Data menggunakan nilai konfigurasi default yang sama dengan proyek sumber terbuka masing-masing untuk sebagian besar pengaturan. Pengaturan yang kami ubah tercantum di bawah ini bersama dengan deskripsi dan nilai defaultnya. Selain sumber daya gateway, tidak ada perbedaan antara pengaturan yang dapat dikonfigurasi pada cakupan layanan dan cakupan sumber daya.

Anda dapat menemukan semua konfigurasi yang mungkin dan default untuk masing-masing di situs dokumentasi Apache terkait:

Pengaturan yang tidak kami dukung untuk mengonfigurasi juga tercantum di bawah ini.

Catatan

Untuk menyertakan Spark di kumpulan Penyimpanan, atur nilai includeSpark boolean dalam bdc.json file konfigurasi di spec.resources.storage-0.spec.settings.spark. Lihat Mengonfigurasi Apache Spark dan Apache Hadoop di Kluster Big Data untuk mendapatkan petunjuk.

pengaturan Spark default khusus Kluster Big Data

Pengaturan Spark di bawah ini adalah pengaturan yang memiliki default khusus BDC tetapi dapat dikonfigurasi pengguna. Pengaturan yang dikelola sistem tidak disertakan.

Nama Pengaturan Deskripsi Jenis Nilai Default
capacity-scheduler.yarn.scheduler.capacity.maximum-applications Jumlah maksimum aplikasi dalam sistem yang dapat aktif secara bersamaan baik yang berjalan maupun tertunda. int 10000
capacity-scheduler.yarn.scheduler.capacity.resource-calculator Implementasi ResourceCalculator yang akan digunakan untuk membandingkan Sumber Daya di penjadwal. string org.apache.hadoop.yarn.util.resource.DominantResourceCalculator
capacity-scheduler.yarn.scheduler.capacity.root.queues Penjadwal kapasitas dengan antrean yang telah ditentukan sebelumnya yang disebut root. string Default
capacity-scheduler.yarn.scheduler.capacity.root.default.capacity Kapasitas antrean dalam persentase (%) sebagai kapasitas minimum antrean sumber daya absolut untuk antrean root. int 100
spark-defaults-conf.spark.driver.cores Jumlah inti yang digunakan untuk proses driver, hanya dalam mode kluster. int 1
spark-defaults-conf.spark.driver.memoryOverhead Jumlah memori off-heap yang akan dialokasikan per driver dalam mode kluster. int 384
spark-defaults-conf.spark.executor.instances Jumlah pelaksana untuk alokasi statis. int 1
spark-defaults-conf.spark.executor.cores Jumlah inti yang akan digunakan pada setiap pelaksana. int 1
spark-defaults-conf.spark.driver.memory Jumlah memori yang digunakan untuk proses driver. string 1g
spark-defaults-conf.spark.executor.memory Jumlah memori yang digunakan per proses pelaksana. string 1g
spark-defaults-conf.spark.executor.memoryOverhead Jumlah memori off-heap yang akan dialokasikan per eksekutor. int 384
yarn-site.yarn.nodemanager.resource.memory-mb Jumlah memori fisik, dalam MB, yang dapat dialokasikan untuk kontainer. int 8192
yarn-site.yarn.scheduler.maximum-allocation-mb Alokasi maksimum untuk setiap permintaan kontainer di resource manager. int 8192
yarn-site.yarn.nodemanager.resource.cpu-vcores Jumlah inti CPU yang dapat dialokasikan untuk kontainer. int 32
yarn-site.yarn.scheduler.maximum-allocation-vcores Alokasi maksimum untuk setiap permintaan kontainer di resource manager, dalam hal inti CPU virtual. int 8
yarn-site.yarn.nodemanager.linux-container-executor.secure-mode.pool-user-count Jumlah pengguna kumpulan untuk pelaksana kontainer linux dalam mode aman. int 6
yarn-site.yarn.scheduler.capacity.maximum-am-resource-percent Persentase maksimum sumber daya dalam kluster yang dapat digunakan untuk menjalankan master aplikasi. float 0.1
yarn-site.yarn.nodemanager.container-executor.class Pelaksana kontainer untuk sistem operasi tertentu. string org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor
capacity-scheduler.yarn.scheduler.capacity.root.default.user-limit-factor Kelipatan kapasitas antrean yang dapat dikonfigurasi untuk memungkinkan satu pengguna memperoleh lebih banyak sumber daya. int 1
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-capacity Kapasitas antrean maksimum dalam persentase (%) sebagai float ATAU sebagai kapasitas maksimum antrean sumber daya absolut. Mengatur nilai ini ke -1 menetapkan kapasitas maksimum ke 100%. int 100
capacity-scheduler.yarn.scheduler.capacity.root.default.state Status antrean bisa menjadi salah satu dari Berjalan atau Dihentikan. string RUNNING
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-application-lifetime Masa pakai maksimum aplikasi yang dikirimkan ke antrean dalam hitungan detik. Nilai apa pun yang kurang dari atau sama dengan nol akan dianggap sebagai dinonaktifkan. int -1
capacity-scheduler.yarn.scheduler.capacity.root.default.default-application-lifetime Masa pakai default aplikasi yang dikirimkan ke antrean dalam hitungan detik. Nilai apa pun yang kurang dari atau sama dengan nol akan dianggap sebagai dinonaktifkan. int -1
capacity-scheduler.yarn.scheduler.capacity.node-locality-delay Jumlah peluang penjadwalan yang terlewat setelah itu CapacityScheduler mencoba menjadwalkan kontainer rak-lokal. int 40
capacity-scheduler.yarn.scheduler.capacity.rack-locality-additional-delay Jumlah peluang penjadwalan terlewat tambahan atas node-locality-delay, setelah itu CapacityScheduler mencoba menjadwalkan kontainer nonaktif. int -1
hadoop-env. HADOOP_HEAPSIZE_MAX Ukuran timbunan maksimum default dari semua proses Hadoop JVM. int 2048
yarn-env. YARN_RESOURCEMANAGER_HEAPSIZE Ukuran timbunan Yarn ResourceManager. int 2048
yarn-env. YARN_NODEMANAGER_HEAPSIZE Ukuran timbunan Yarn NodeManager. int 2048
dipetakan-env. HADOOP_JOB_HISTORYSERVER_HEAPSIZE Ukuran timbunan Riwayat Pekerjaan HadoopServer. int 2048
hive-env. HADOOP_HEAPSIZE Ukuran timbunan Hadoop untuk Apache Hive. int 2048
livy-conf.livy.server.session.timeout-check Periksa batas waktu sesi server Livy. bool benar
livy-conf.livy.server.session.timeout-check.skip-busy Lewati sibuk untuk Memeriksa batas waktu sesi server Livy. bool benar
livy-conf.livy.server.session.timeout Waktu habis untuk sesi server livy di (ms/s/m | min/h/d/y). string 2 jam
livy-conf.livy.server.yarn.poll-interval Interval polling untuk yarn di server Livy di (ms/s/m | min/h/d/y). string 500md
livy-conf.livy.rsc.jars Jar Livy RSC. string local:/opt/livy/rsc-jars/livy-api.jar,local:/opt/livy/rsc-jars/livy-rsc.jar,local:/opt/livy/rsc-jars/netty-all.jar
livy-conf.livy.repl.jars Livy repl jars. string local:/opt/livy/repl_2.11-jars/livy-core.jar,local:/opt/livy/repl_2.11-jars/livy-repl.jar,local:/opt/livy/repl_2.11-jars/commons-codec.jar
livy-conf.livy.rsc.sparkr.package Paket Livy RSC SparkR. string hdfs:///system/livy/sparkr.zip
livy-env. LIVY_SERVER_JAVA_OPTS Opsi Java Livy Server. string -Xmx2g
spark-defaults-conf.spark.r.backend Koneksi ionTimeout Koneksi batas waktu yang ditetapkan oleh proses R pada koneksinya ke RBackend dalam hitungan detik. int 86400
spark-defaults-conf.spark.pyspark.python Opsi Python untuk spark. string /opt/bin/python3
spark-defaults-conf.spark.yarn.jars Botol benang. string local:/opt/spark/jars/*
spark-history-server-conf.spark.history.fs.cleaner.maxAge Usia maksimum file riwayat pekerjaan sebelum dihapus oleh pembersih riwayat sistem file di (ms/s/m | min/h/d/y). string 7h terakhir
spark-history-server-conf.spark.history.fs.cleaner.interval Interval pembersih untuk riwayat spark di (ms/s/m | min/h/d/y). string 12 jam
hadoop-env. HADOOP_CLASSPATH Mengatur classpath Hadoop tambahan. string
spark-env. SPARK_DAEMON_MEMORY Memori Spark Daemon. string 2g
yarn-site.yarn.log-aggregation.retain-seconds Ketika agregasi log diaktifkan, properti ini menentukan jumlah detik untuk menyimpan log. int 604800
yarn-site.yarn.nodemanager.log-aggregation.compression-type Jenis kompresi untuk agregasi log untuk Yarn NodeManager. string Gz
yarn-site.yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds Interval detik untuk Pemantauan Roll di Agregasi Log NodeManager. int 3600
yarn-site.yarn.scheduler.minimum-allocation-mb Alokasi minimum untuk setiap permintaan kontainer di Resource Manager, dalam MB. int 512
yarn-site.yarn.scheduler.minimum-allocation-vcores Alokasi minimum untuk setiap permintaan kontainer di Resource Manager dalam hal inti CPU virtual. int 1
yarn-site.yarn.nm.liveness-monitor.expiry-interval-ms Berapa lama menunggu sampai manajer node dianggap mati. int 180000
yarn-site.yarn.resourcemanager.zk-timeout-ms Waktu sesi 'ZooKeeper' habis dalam milidetik. int 40000
scheduler.yarn.scheduler.capacity.root.default.acl_application_max_priority kapasitas ACL dari siapa yang dapat mengirimkan aplikasi dengan prioritas yang dikonfigurasi. Misalnya, [user={name} group={name} max_priority={priority} default_priority={priority}]. string *
includeSpark Boolean untuk mengonfigurasi apakah pekerjaan Spark dapat berjalan di kumpulan Penyimpanan atau tidak. bool benar
enableSparkOnK8s Boolean untuk mengonfigurasi apakah Spark pada K8s diaktifkan atau tidak, yang menambahkan kontainer untuk K8 di kepala Spark. bool salah
sparkVersion Versi Spark string 2.4
spark-env. PYSPARK_ARCHIVES_PATH Jalur ke jar arsip pyspark yang digunakan dalam pekerjaan spark. string local:/opt/spark/python/lib/pyspark.zip,local:/opt/spark/python/lib/py4j-0.10.7-src.zip

Bagian berikut mencantumkan konfigurasi yang tidak didukung.

pengaturan HDFS default khusus Kluster Big Data

Pengaturan HDFS di bawah ini adalah pengaturan yang memiliki default khusus BDC tetapi dapat dikonfigurasi pengguna. Pengaturan yang dikelola sistem tidak disertakan.

Nama Pengaturan Deskripsi Jenis Nilai Default
hdfs-site.dfs.replication Replikasi Blok Default. int 2
hdfs-site.dfs.namenode.provided.enabled Memungkinkan simpul nama untuk menangani penyimpanan yang disediakan. bool benar
hdfs.site.dfs.namenode.mount.acls.enabled Atur ke true untuk mewarisi ACL (Daftar Kontrol Akses) dari penyimpanan jarak jauh selama pemasangan. bool salah
hdfs-site.dfs.datanode.provided.enabled Memungkinkan simpul data untuk menangani penyimpanan yang disediakan. bool benar
hdfs-site.dfs.datanode.provided.volume.lazy.load Aktifkan beban malas dalam simpul data untuk penyimpanan yang disediakan. bool benar
hdfs-site.dfs.provided.aliasmap.inmemory.enabled Aktifkan peta alias dalam memori untuk penyimpanan yang disediakan. bool benar
hdfs-site.dfs.provided.aliasmap.class Kelas yang digunakan untuk menentukan format input blok pada penyimpanan yang disediakan. string org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.InMemoryLevelDBAliasMapClient
hdfs-site.dfs.namenode.provided.aliasmap.class Kelas yang digunakan untuk menentukan format input blok pada penyimpanan yang disediakan untuk namenode. string org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.NamenodeInMemoryAliasMapClient
hdfs-site.dfs.provided.aliasmap.load.retries Jumlah percobaan ulang pada datanode untuk memuat aliasmap yang disediakan. int 0
hdfs-site.dfs.provided.aliasmap.inmemory.batch-size Ukuran batch saat melakukan iterasi pada database yang mendukung aliasmap. int 500
hdfs-site.dfs.datanode.provided.volume.readthrough Aktifkan readthrough untuk penyimpanan yang disediakan dalam datanode. bool benar
hdfs-site.dfs.provided.cache.capacity.mount Aktifkan pemasangan kapasitas cache untuk penyimpanan yang disediakan. bool benar
hdfs-site.dfs.provided.overreplication.factor Faktor replikasi berlebihan untuk penyimpanan yang disediakan. Jumlah blok cache pada BDC yang dibuat per blok HDFS jarak jauh. float 1
hdfs-site.dfs.provided.cache.capacity.fraction Pecahan kapasitas cache untuk penyimpanan yang disediakan. Pecahan total kapasitas dalam kluster yang dapat digunakan untuk menyimpan data dari penyimpanan yang disediakan. float 0.01
hdfs-site.dfs.provided.cache.capacity.bytes Kapasitas kluster untuk digunakan sebagai ruang cache untuk Blok yang disediakan, dalam byte. int -1
hdfs-site.dfs.ls.limit Batasi jumlah file yang dicetak oleh ls. int 500
hdfs-env. HDFS_NAMENODE_OPTS Opsi Namenode HDFS. string -Dhadoop.security.logger=INFO,RFAS -Xmx2g
hdfs-env. HDFS_DATANODE_OPTS Opsi Datanode HDFS. string -Dhadoop.security.logger=ERROR,RFAS -Xmx2g
hdfs-env. HDFS_ZKFC_OPTS Opsi HDFS ZKFC. string -Xmx1g
hdfs-env. HDFS_JOURNALNODE_OPTS Opsi HDFS JournalNode. string -Xmx2g
hdfs-env. HDFS_AUDIT_LOGGER Opsi Pencatat Audit HDFS. string INFO,RFAAUDIT
core-site.hadoop.security.group.mapping.ldap.search.group.hierarchy.levels Tingkat hierarki untuk grup Pencarian LDAP Hadoop situs inti. int 10
core-site.fs.permissions.umask-mode Mode umask izin. string 077
core-site.hadoop.security.kms.client.failover.max.retries Percobaan ulang maksimum untuk failover klien. int 20
zoo-cfg.tickTime Centang Waktu untuk konfigurasi 'ZooKeeper'. int 2000
zoo-cfg.initLimit Init Time untuk konfigurasi 'ZooKeeper'. int 10
zoo-cfg.syncLimit Waktu Sinkronisasi untuk konfigurasi 'ZooKeeper'. int 5
zoo-cfg.maxClientCnxns Koneksi Klien Maks untuk konfigurasi 'ZooKeeper'. int 60
zoo-cfg.minSessionTimeout Batas Waktu Sesi Minimum untuk konfigurasi 'ZooKeeper'. int 4000
zoo-cfg.maxSessionTimeout Batas Waktu Sesi Maksimum untuk konfigurasi 'ZooKeeper'. int 40000
zoo-cfg.autopurge.snapRetainCount Jumlah Snap Retain untuk konfigurasi Autopurge 'ZooKeeper'. int 3
zoo-cfg.autopurge.purgeInterval Interval penghapusan menyeluruh untuk konfigurasi Autopurge 'ZooKeeper'. int 0
zookeeper-java-env. JVMFLAGS Bendera JVM untuk lingkungan Java di 'ZooKeeper'. string -Xmx1G -Xms1G
zookeeper-log4j-properties.zookeeper.console.threshold Ambang batas untuk konsol log4j di 'ZooKeeper'. string INFO
zoo-cfg.zookeeper.request.timeout Mengontrol batas waktu permintaan 'ZooKeeper' dalam milidetik. int 40000
kms-site.hadoop.security.kms.encrypted.key.cache.size Ukuran cache untuk kunci terenkripsi di hadoop kms. int 500

pengaturan Gateway default khusus Kluster Big Data

Pengaturan Gateway di bawah ini adalah pengaturan yang memiliki default khusus BDC tetapi dapat dikonfigurasi pengguna. Pengaturan yang dikelola sistem tidak disertakan. Pengaturan gateway hanya dapat dikonfigurasi pada cakupan sumber daya .

Nama Pengaturan Deskripsi Jenis Nilai Default
gateway-site.gateway.httpclient.socketTimeout Batas Waktu Soket untuk klien HTTP di gateway di (ms/s/m). string An
gateway-site.sun.security.krb5.debug Debug untuk Kerberos Security. bool benar
knox-env. KNOX_GATEWAY_MEM_OPTS Opsi Memori Knox Gateway. string -Xmx2g

Konfigurasi Spark yang tidak didukung

Konfigurasi berikut spark tidak didukung dan tidak dapat diubah dalam konteks Kluster Big Data.

Kategori Sub-Kategori File Konfigurasi yang Tidak Didukung
yarn-site yarn-site.xml yarn.log-aggregation-enable
yarn.log.server.url
yarn.nodemanager.pmem-check-enabled
yarn.nodemanager.vmem-check-enabled
yarn.nodemanager.aux-services
yarn.resourcemanager.address
yarn.nodemanager.address
yarn.client.failover-no-ha-proxy-provider
yarn.client.failover-proxy-provider
yarn.http.policy
yarn.nodemanager.linux-container-executor.secure-mode.use-pool-user
yarn.nodemanager.linux-container-executor.secure-mode.pool-user-prefix
yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user
yarn.acl.enable
yarn.admin.acl
yarn.resourcemanager.hostname
yarn.resourcemanager.principal
yarn.resourcemanager.keytab
yarn.resourcemanager.webapp.spnego-keytab-file
yarn.resourcemanager.webapp.spnego-principal
yarn.nodemanager.principal
yarn.nodemanager.keytab
yarn.nodemanager.webapp.spnego-keytab-file
yarn.nodemanager.webapp.spnego-principal
yarn.resourcemanager.ha.enabled
yarn.resourcemanager.cluster-id
yarn.resourcemanager.zk-address
yarn.resourcemanager.ha.rm-ids
yarn.resourcemanager.hostname.*
penjadwal kapasitas capacity-scheduler.xml yarn.scheduler.capacity.root.acl_submit_applications
yarn.scheduler.capacity.root.acl_administer_queue
yarn.scheduler.capacity.root.default.acl_application_max_priority
yarn-env yarn-env.sh
spark-defaults-conf spark-defaults.conf spark.yarn.archive
spark.yarn.historyServer.address
spark.eventLog.enabled
spark.eventLog.dir
spark.sql.warehouse.dir
spark.sql.hive.metastore.version
spark.sql.hive.metastore.jars
spark.extraListeners
spark.metrics.conf
spark.ssl.enabled
spark.authenticate
spark.network.crypto.enabled
spark.ssl.keyStore
spark.ssl.keyStorePassword
spark.ui.enabled
spark-env spark-env.sh SPARK_NO_DAEMONIZE
SPARK_DIST_CLASSPATH
spark-history-server-conf spark-history-server.conf spark.history.fs.logDirectory
spark.ui.proxyBase
spark.history.fs.cleaner.enabled
spark.ssl.enabled
spark.authenticate
spark.network.crypto.enabled
spark.ssl.keyStore
spark.ssl.keyStorePassword
spark.history.kerberos.enabled
spark.history.kerberos.principal
spark.history.kerberos.keytab
spark.ui.filters
spark.acls.enable
spark.history.ui.acls.enable
spark.history.ui.admin.acls
spark.history.ui.admin.acls.groups
livy-conf livy.conf livy.keystore
livy.keystore.password
livy.spark.master
livy.spark.deploy-mode
livy.rsc.jars
livy.repl.jars
livy.rsc.pyspark.archives
livy.rsc.sparkr.package
livy.repl.enable-hive-context
livy.superusers
livy.server.auth.type
livy.server.launch.kerberos.keytab
livy.server.launch.kerberos.principal
livy.server.auth.kerberos.principal
livy.server.auth.kerberos.keytab
livy.impersonation.enabled
livy.server.access-control.enabled
livy.server.access-control.*
livy-env livy-env.sh
hive-site hive-site.xml javax.jdo.option. Koneksi URL
javax.jdo.option. Koneksi ionDriverName
javax.jdo.option. Koneksi ionUserName
javax.jdo.option. Koneksi ionPassword
hive.metastore.uris
hive.metastore.pre.event.listeners
hive.security.authorization.enabled
hive.security.metastore.authenticator.manager
hive.security.metastore.authorization.manager
hive.metastore.use.SSL
hive.metastore.keystore.path
hive.metastore.keystore.password
hive.metastore.truststore.path
hive.metastore.truststore.password
hive.metastore.kerberos.keytab.file
hive.metastore.kerberos.principal
hive.metastore.sasl.enabled
hive.metastore.execute.setugi
hive.cluster.delegation.token.store.class
hive-env hive-env.sh

Konfigurasi HDFS yang tidak didukung

Konfigurasi berikut hdfs tidak didukung dan tidak dapat diubah dalam konteks Kluster Big Data.

Kategori Sub-Kategori File Konfigurasi yang Tidak Didukung
situs inti core-site.xml fs.defaultFS
ha.zookeeper.quorum
hadoop.tmp.dir
hadoop.rpc.protection
hadoop.security.auth_to_local
hadoop.security.authentication
hadoop.security.authorization
hadoop.http.authentication.simple.anonymous.allowed
hadoop.http.authentication.type
hadoop.http.authentication.kerberos.principal
hadoop.http.authentication.kerberos.keytab
hadoop.http.filter.initializeers
hadoop.security.group.mapping.*
hadoop.security.key.provider.path
mapred-env mapred-env.sh
hdfs-site hdfs-site.xml dfs.namenode.name.dir
dfs.datanode.data.dir
dfs.namenode.acls.enabled
dfs.namenode.datanode.registration.ip-hostname-check
dfs.client.retry.policy.enabled
dfs.permissions.enabled
dfs.nameservices
dfs.ha.namenodes.nmnode-0
dfs.namenode.rpc-address.nmnode-0.*
dfs.namenode.shared.edits.dir
dfs.ha.automatic-failover.enabled
dfs.ha.fencing.methods
dfs.journalnode.edits.dir
dfs.client.failover.proxy.provider.nmnode-0
dfs.namenode.http-address
dfs.namenode.httpS-address
dfs.http.policy
dfs.encrypt.data.transfer
dfs.block.access.token.enable
dfs.data.transfer.protection
dfs.encrypt.data.transfer.cipher.suites
dfs.https.port
dfs.namenode.keytab.file
dfs.namenode.kerberos.principal
dfs.namenode.kerberos.internal.spnego.principal
dfs.datanode.data.dir.perm
dfs.datanode.address
dfs.datanode.http.address
dfs.datanode.ipc.address
dfs.datanode.https.address
dfs.datanode.keytab.file
dfs.datanode.kerberos.principal
dfs.journalnode.keytab.file
dfs.journalnode.kerberos.principal
dfs.journalnode.kerberos.internal.spnego.principal
dfs.web.authentication.kerberos.keytab
dfs.web.authentication.kerberos.principal
dfs.webhdfs.enabled
dfs.permissions.superusergroup
hdfs-env hdfs-env.sh HADOOP_HEAPSIZE_MAX
zoo-cfg zoo.cfg secureClientPort
clientPort
dataDir
dataLogDir
4lw.commands.whitelist
zookeeper-java-env java.env ZK_LOG_DIR
SERVER_JVMFLAGS
zookeeper-log4j-properties log4j.properties (zookeeper) log4j.rootLogger
log4j.appender.CONSOLE.*

Catatan

Artikel ini berisi istilah whitelist, istilah Microsoft menganggap tidak sensitif dalam konteks ini. Istilah muncul dalam artikel ini karena saat ini muncul di perangkat lunak. Ketika istilah dihapus dari perangkat lunak, kami akan menghapusnya dari artikel.

Konfigurasi yang gateway tidak didukung

Konfigurasi berikut gateway untuk tidak didukung dan tidak dapat diubah dalam konteks Kluster Big Data.

Kategori Sub-Kategori File Konfigurasi yang Tidak Didukung
gateway-site gateway-site.xml gateway.port
gateway.path
gateway.gateway.conf.dir
gateway.hadoop.kerberos.secured
java.security.krb5.conf
java.security.auth.login.config
gateway.websocket.feature.enabled
gateway.scope.cookies.feature.enabled
ssl.exclude.protocols
ssl.include.ciphers

Langkah berikutnya

Mengonfigurasi Kluster Big Data SQL Server